“The Agents: Empujándonos a la iA Local”.

Cada semana selecciono los modelos y herramientas que más destacan en los benchmarks, evaluando la brecha real entre lo que prometen y lo que entregan. Sin embargo, cuando llega el domingo por la mañana para cerrar el editorial, la realidad se impone con crudeza. Esta vez no era uno de los modelos que sobresalía por sus métricas en los benchmarks, sino una vez más un error: Claude y su agente Claude Code se impusieron como noticia por el incidente que protagonizaron.  

El Hype de Claude: Por Qué Entregarle las Llaves de Tu Casa a un Desconocido No Es Tan Buena Idea‍ ‍

En 2026 Claude se ha consolidado como uno de los modelos más destacados de la iA. Sus versiones avanzadas lideran numerosos benchmarks en coding y workflows agenticos. Claude Code, su agente CLI, promete autonomía total: abrir archivos, ejecutar comandos, migrar infraestructuras y actuar de forma proactiva. Estas capacidades suenan atractivas para automatizar procesos, reducir costos operativos y acelerar el desarrollo. El hype encuentra sustento en las demostraciones públicas. Sin embargo, la realidad revela otra cara: el fogoneo por otorgar poder total a los agents está dejando al descubierto grietas estructurales. No se trata solo de marketing; es un riesgo sistémico para cualquier organización.  

La Realidad del Fogoneo: Cuando el Agente “Ayuda” y Destruye Todo‍ ‍

Un caso reciente ilustró los peligros concretos: Claude Code propuso un plan aparentemente lógico con Terraform para una migración en AWS, pero terminó eliminando por completo la base de datos de producción, incluyendo sus snapshots.

Se perdieron 2,5 años de datos en cuestión de segundos. Aunque el modelo había mencionado posibles riesgos, la confianza excesiva en el agente autónomo prevaleció. Y apenas días antes, el 31 de marzo de 2026, Anthropic sufrió una filtración accidental de 512.000 líneas de código fuente de Claude Code, provocada por un error humano durante el empaquetado del paquete npm: un source map que no debió publicarse. Quedaron expuestas configuraciones internas, modos ocultos y la arquitectura completa de sus agents.

Más allá del error puntual en el proceso de lanzamiento, el problema de fondo es que la industria esté impulsando el uso de agents con write access total en sistemas críticos, sin haber resuelto aún cuestiones básicas de seguridad. Se está promoviendo tecnología aún inmadura en entornos productivos, donde un solo fallo puede generar pérdidas millonarias y comprometer la continuidad del negocio. Se ofrece autonomía total antes de contar con salvaguardas sólidas.  

La Fragilidad de Todos los Modelos Frontier Online‍ ‍

Todos los modelos frontier —Claude, GPT, Gemini, Grok— operan online por diseño. Esto implica dependencia de servidores remotos (AWS, Azure, Google Cloud), APIs expuestas a rate limits, outages y decisiones corporativas externas. Un error humano, un ataque o un cambio de política pueden dejar al agente inoperativo. La filtración de Claude Code demostró que ni las propias empresas son infalibles en sus procesos internos.  

La Guerra que todo lo Expone: Amazon Bombardeada (Literal y Figuradamente)‍ ‍

La fragilidad quedó aún más expuesta en el plano geopolítico. Durante el conflicto entre EE.UU. e Irán a principios de marzo de 2026, ataques con drones y misiles alcanzaron centros de datos de Amazon AWS en Emiratos Árabes y Baréin, causando daños físicos, incendios e interrupciones de servicios.

La “guerra” —tanto la literal con misiles como la interna por adoptar agents de forma acelerada— revela una verdad incómoda: la infraestructura en la nube es vulnerable. Un incidente externo o un agente excesivamente confiado puede hacer que todo colapse en el peor momento.  

La Conclusión Inevitable: iA Local, Unidireccional y Punto‍ ‍

Para las empresas que entienden que sus activos críticos no son negociables, la IA local deja de ser una alternativa para convertirse en el estándar obligatorio en 2026. La verdadera eficiencia no nace de delegar el control, sino de ejercerlo plenamente:  

  • Soberanía de datos: Los prompts y la propiedad intelectual permanecen dentro de tu perímetro. Nadie externo observa ni entrena con tu información.

  • Independencia operativa: Tu capacidad de ejecución no depende de conflictos geopolíticos, cables submarinos ni de la estabilidad de proveedores externos.

  • Seguridad real: Entornos aislados donde cada acción es auditable y reversible.

  • Unidireccional sí o sí: la IA solo propone y sugiere; el ser humano siempre revisa, aprueba y ejecuta manualmente. Nunca se le otorga acceso directo ni capacidad de actuar de forma autónoma en sistemas productivos. Es una herramienta, no un actor con llaves.

Claude Code y herramientas similares pueden ser útiles en entornos de prueba o tareas de bajo impacto. Pero en el mundo real, donde un error puede borrar años de historia empresarial, la autonomía sin supervisión humana estricta es un lujo que ninguna organización responsable puede permitirse. La tecnología debe servirnos con límites claros e infranqueables. La soberanía tecnológica no es opcional: Es una necesidad.

Autor: Leo Utzinger

Asistentes: Grok & Gemini

Fuentes de Información:‍ ‍

1. Incidente de Claude Code que eliminó la base de datos de producción (2,5 años de datos)

Artículo principal del afectado (Alexey Grigorev): https://alexeyondata.substack.com/p/how-i-dropped-our-production-database

Cobertura detallada en Tom's Hardware:https://www.tomshardware.com/tech-industry/artificial-intelligence/claude-code-deletes-developers-production-setup-including-its-database-and-snapshots-2-5-years-of-records-were-nuked-in-an-instant

Medium: https://medium.com/coding-nexus/the-day-claude-code-deleted-our-production-database-51606d71436e‍ ‍

2. Filtración accidental de 512.000 líneas de código fuente de Claude Code (31 de marzo de 2026)

The Hacker News (detalle completo del error con npm y source map): https://thehackernews.com/2026/04/claude-code-tleaked-via-npm-packaging.html

InfoWorld: https://www.infoworld.com/article/4152856/anthropic-employee-error-exposes-claude-code-source.html

Cybernews: https://cybernews.com/security/anthropic-claude-code-source-leak/‍ ‍

3. Ataques con drones/misiles iraníes a centros de datos de AWS en Emiratos Árabes y Baréin (principios de marzo 2026)

Tom's Hardware (ataques y “hard down” status): https://www.tomshardware.com/tech-industry/iranian-missile-blitz-takes-down-aws-data-centers-in-bahrain-and-dubai-amazon-declares-hard-down-status-for-multiple-zones

Reuters: https://www.reuters.com/world/middle-east/amazons-cloud-business-bahrain-damaged-iran-strike-ft-reports-2026-04-01/

Fortune (contexto de los ataques a data centers): https://fortune.com/2026/03/09/irans-attacks-on-amazon-data-centers-in-uae-bahrain-signal-a-new-kind-of-war-as-ai-plays-an-increasingly-strategic-role-analysts-say/‍ ‍

BBC: https://www.bbc.com/news/articles/cgk28nj0lrjo‍ ‍

Siguiente
Siguiente

“El riesgo de la suscripción anual: lecciones del caso Sora”