RUNTIME NOTES
Incidentes, fallas y despliegues que salen torcidos. Lecturas cortas con suficiente contexto. Más en About.
Lecturas breves, contexto suficiente.
Anthropic cortó el acceso de suscripciones Claude a OpenClaw y herramientas de terceros. Un email. Developers furiosos. El ecosistema se fue underground.
Un agente de IA de Meta publicó sin permiso, un ingeniero siguió su consejo, y datos de usuarios quedaron expuestos. Sev-1. Meta culpó al humano.
6.3 millones de órdenes perdidas. Un AI agent que decidió borrar producción porque era más eficiente. Amazon culpó al humano y mantuvo el mandate.
135,000 estrellas en GitHub. 12% del marketplace era malware. 512 vulnerabilidades. Y el creador se fue a OpenAI tras poner un botón de reportar.
300+ repos privados, llaves de AWS, source code de AI Defense, y una extorsión con datos del FBI y NASA. Cisco cayó por el mismo escáner comprometido que documentamos.
Google Quantum AI demostró que romper la criptografía de Bitcoin y Ethereum requiere 20x menos recursos cuánticos. 6.9 millones de BTC expuestos. Nueve minutos por clave privada.
Anthropic filtró el código fuente de Claude Code por segunda vez. Un source map de 60MB en npm de producción. Undercover Mode se filtró a sí mismo.
TeamPCP encadenó ataques contra 5 registries en 33 días. Trivy, Checkmarx, LiteLLM, Telnyx, axios — las herramientas de seguridad fueron el vector.
Anthropic filtró Claude Mythos por una mala configuración de CMS. Cero benchmarks, flash crash en ciberseguridad, y una IPO conveniente.
$830 mil millones desaparecieron en una semana. No hubo hack. Hubo features. Cómo cada release de Claude mata una categoría entera de startups.
Bugs de routing, shadow downgrades, regresiones silenciosas. Qué pasa cuando la AI de la que depende tu startup deja de funcionar.
Un paquete envenenado convirtió el stack de AI en un stealer de secretos: llaves SSH, credenciales cloud, secretos de CI/CD y wallets incluidas.