El modelo de IA "más poderoso jamás desarrollado" fue expuesto al mundo porque alguien dejó un checkbox en "público."

No fue un ataque de supply chain. No fue un zero-day. No fue un grupo de hackers estatales con tooling sofisticado.

Fue un CMS con la configuración por defecto.

El 26 de marzo de 2026, un reportero de Fortune descubrió cerca de 3,000 archivos internos de Anthropic — borradores de blog, PDFs, imágenes, memos — almacenados en un data store público y buscable. Entre ellos, un borrador de blog post que describía un modelo llamado Claude Mythos. Según el documento, Anthropic lo considera "un cambio de nivel" en capacidades de IA y cree que representa "riesgos de ciberseguridad sin precedentes."

La empresa que está construyendo el arma más peligrosa del mundo en ciberseguridad autónoma no configuró los permisos de lectura de su propio blog.

La ironía no es sutil. Es estructural.


Lo que se filtró

El data store de Anthropic tenía una configuración por defecto que hacía todos los assets públicamente accesibles a menos que alguien explícitamente los marcara como privados. Nadie lo hizo.

El borrador filtrado revela que Mythos es parte de un nuevo tier interno llamado Capybara — por encima de la familia actual de Haiku, Sonnet y Opus. Según el documento, el modelo obtiene resultados "dramáticamente superiores" en programación, razonamiento académico y — la parte que le quita el sueño a Wall Street — ciberseguridad.

Capacidades específicas mencionadas:

Todo esto según el borrador de PR de Anthropic. Cero benchmarks publicados. Cero papers. Cero acceso de terceros para verificar nada.

"El modelo de IA más poderoso que hemos desarrollado" es la claim. La evidencia es: créenos.


El pánico

Los mercados no esperaron evidencia.

El 27 de marzo, un día después de la filtración, las acciones de ciberseguridad se desplomaron:

Bitcoin cayó $4,000, de $70,000 a $66,000. El Nasdaq bajó 2.15%. Miles de millones en capitalización de mercado evaporados.

Todo por un borrador de blog post que nadie en Anthropic se molestó en marcar como privado.

Un documento de marketing interno — no un paper técnico, no un benchmark reproducible, no una demostración independiente — provocó un flash crash en el sector de ciberseguridad global.

La pregunta no es si el modelo es real. La pregunta es cuándo un borrador de PR se convirtió en inteligencia de mercado.


El precedente que nadie quiere mencionar

Hay contexto que hace esta filtración más incómoda de lo que parece.

En noviembre de 2025, Anthropic publicó un reporte admitiendo que hackers respaldados por el estado chino habían usado Claude Code para ejecutar una campaña de espionaje contra aproximadamente 30 organizaciones — empresas tecnológicas, instituciones financieras, fabricantes químicos y agencias gubernamentales.

El ataque comenzó en septiembre de 2025. Los hackers hicieron jailbreak del modelo, disfrazando comandos maliciosos como requests de testing de seguridad legítimo. Una vez comprometido, el sistema identificaba bases de datos valiosas, explotaba vulnerabilidades, cosechaba credenciales y creaba backdoors para exfiltrar datos.

Según Anthropic, el modelo ejecutó el 80-90% del trabajo. Los operadores humanos solo intervenían para "decisiones de alto nivel."

Cuatro meses después, Anthropic anuncia un modelo que es "dramáticamente superior" al que los hackers chinos ya usaron exitosamente.

Y lo filtra por no configurar un CMS.


La coincidencia conveniente

El mismo día que Fortune publicó la historia de la filtración, Bloomberg y The Information reportaron que Anthropic está considerando una IPO tan pronto como octubre de 2026, con una valoración objetivo de más de $60 mil millones.

Múltiples analistas cuestionaron la narrativa de "accidente". Filtrar el modelo de IA más poderoso del mundo justo antes de salir a bolsa es... conveniente. El ciclo de noticias se llenó de Mythos. Cada publicación de tecnología, finanzas y ciberseguridad del planeta cubrió la historia. Marketing gratuito a escala global.

Anthropic dice que fue un error humano.

El timing dice otra cosa.

Pero la verdad es que no importa cuál versión sea correcta. Si fue accidental, una empresa que construye herramientas autónomas de ciberseguridad no puede configurar permisos de lectura. Si fue deliberado, una empresa que se posiciona como el bastión de la "IA segura y responsable" manipuló el mercado con un borrador de PR sin un solo dato verificable.

Ambas versiones son peores que la otra.


Los números que faltan

Lo que el borrador de Mythos NO incluye:

Lo que SÍ incluye:

Cinco adjetivos superlativos. Cero números.

El modelo predecesor, Opus 4.6, tiene un 80.8% en SWE-bench. ¿Mythos tiene 85%? ¿90%? ¿99%? No se sabe. Porque el documento filtrado era un borrador de relaciones públicas, no un reporte técnico.

Anthropic eligió el nombre Mythos "para evocar el profundo tejido conectivo que une el conocimiento y las ideas."

Eligieron bien. Un mito es exactamente lo que tenemos hasta ahora.


Lo que sí se sabe

El acceso anticipado a Mythos está limitado exclusivamente a organizaciones de ciberdefensa. Anthropic dice que está "siendo deliberado" con el release por las capacidades del modelo. Es costoso de operar y no está listo para disponibilidad general.

Se rumorea un precio de hasta $2,000 mensuales. Un lanzamiento oficial se espera para octubre de 2026 — convenientemente alineado con el timeline de la IPO.

El modelo compite contra lo que OpenAI internamente llama "Spud" y los recientes avances de Gemini de Google. La carrera armamentística hacia AGI tiene su propio supply chain de hype, y cada laboratorio necesita su momento viral antes de salir a buscar capital.


Anthropic construyó un modelo que, según ellos, puede encontrar y explotar vulnerabilidades de software más rápido que cualquier equipo humano.

Lo almacenaron en un CMS con todos los permisos en "público por defecto."

El modelo que iba a presagiar una nueva era de ciberataques autónomos fue descubierto porque un reportero buscó en un data store abierto.

No necesitó jailbreak. No necesitó exploit chain. No necesitó un grupo de hackers estatales.

Solo necesitó que alguien olvidara un checkbox.

La próxima vez que Anthropic publique un post sobre "IA segura y responsable," recuerden que su CMS no tenía autenticación.

El mito más poderoso del mundo tenía la puerta abierta.