Anthropic oculta su modelo más avanzado: el Proyecto Glasswing y las miles de vulnerabilidades que Claude Mythos encontró

Anthropic ha tomado una decisión sin precedentes en la industria de la inteligencia artificial: mantener en secreto su modelo más avanzado. Claude Mythos Preview, el sistema de IA más capaz desarrollado hasta la fecha por la compañía fundada por Dario Amodei, no llegará al público general. La razón es tan concreta como perturbadora: durante las pruebas internas, el modelo demostró una capacidad excepcional para detectar vulnerabilidades de seguridad que llevaban décadas ocultas en los sistemas informáticos más utilizados del mundo. Cuando una herramienta de IA se vuelve tan eficaz para encontrar fallos críticos, la pregunta de si publicarla deja de ser estratégica para volverse ética.
Lo que encontró Claude Mythos antes de que nadie más lo hiciera
Los hallazgos documentados públicamente bastan para entender la dimensión del problema. Claude Mythos Preview identificó miles de vulnerabilidades en sistemas operativos principales y navegadores web. Entre los más significativos figura un fallo de seguridad con 27 años de antigüedad en OpenBSD, el sistema operativo de código abierto conocido precisamente por su orientación extrema hacia la seguridad y su historial de auditorías exhaustivas. Que un modelo de IA encuentre en él un bug que décadas de revisión humana no habían detectado es, en sí mismo, una señal de cambio de era.
También identificó el CVE-2026-4747, una vulnerabilidad de ejecución remota de código en FreeBSD que había permanecido sin detectar durante 17 años. FreeBSD es la base de sistemas críticos en infraestructura de red, plataformas de juego y entornos de producción de empresas como Netflix y WhatsApp. Una vulnerabilidad de ejecución remota en ese entorno no es un error menor: es una puerta trasera en potencia para cualquier actor que la conozca y el sistema afectado no la haya parcheado.
Pero lo que resulta más preocupante no es la capacidad de encontrar fallos individuales. Es la habilidad del modelo para encadenar entre tres y cinco vulnerabilidades consecutivas con el fin de comprometer sistemas completos. Esto representa un salto cualitativo respecto a las herramientas de análisis de seguridad tradicionales, que suelen operar fallo por fallo. Claude Mythos razona sobre la superficie de ataque como lo haría un equipo de pentesters expertos, pero a una velocidad y escala que ningún equipo humano puede igualar. Newton Cheng, directivo de Anthropic, fue directo en la comunicación oficial: "No planeamos hacer Claude Mythos Preview disponible públicamente debido a sus capacidades de ciberseguridad."
El Proyecto Glasswing: acceso controlado en lugar de publicación abierta
En lugar de un lanzamiento público, Anthropic ha estructurado el acceso a Claude Mythos Preview a través del Proyecto Glasswing, lanzado en abril de 2026. La iniciativa reúne a once organizaciones de primer nivel como socios iniciales: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, Nvidia y Palo Alto Networks. Más de cuarenta organizaciones adicionales tendrán acceso en una segunda fase.
El mecanismo es claro: estas entidades utilizarán el modelo para identificar y corregir vulnerabilidades en sus propios sistemas antes de que actores malintencionados puedan explotarlas. No se trata de una demostración tecnológica, sino de un ejercicio de seguridad preventiva a escala industrial. Anthropic ha comprometido hasta 100 millones de dólares en créditos de uso para el Proyecto Glasswing, además de 4 millones en donaciones directas a organizaciones de seguridad de código abierto: 2,5 millones para Alpha-Omega y OpenSSF, y 1,5 millones para la Apache Software Foundation.
La elección de socios no es casual. Todos ellos forman parte de la infraestructura digital global: gestionan nubes, sistemas operativos, redes corporativas, plataformas bancarias y herramientas de seguridad que protegen a millones de organizaciones. Darles acceso prioritario a un modelo capaz de encontrar sus propios fallos antes que los atacantes es, en teoría, la forma más rápida de reducir la superficie de riesgo global.
Por qué esta decisión cambia las reglas del sector
Durante años, el debate sobre los riesgos de la IA avanzada se ha desarrollado en términos abstractos. Se hablaba de escenarios hipotéticos, de capacidades emergentes sin casos concretos documentados, de umbrales de peligro difíciles de definir. El Proyecto Glasswing cambia el marco de conversación porque parte de un hecho verificable: el modelo ya existe, ya ha encontrado miles de vulnerabilidades reales, y la decisión de no publicarlo se basa en evidencia empírica, no en especulación.
Esto tiene implicaciones directas para el resto del sector. OpenAI, Google DeepMind y Meta Superintelligence Labs desarrollan modelos con capacidades crecientes. La pregunta que ahora planea sobre todos ellos es la misma: ¿en qué punto una capacidad emergente justifica no publicar el modelo? Anthropic acaba de establecer un precedente sobre cómo responder a esa pregunta. Su respuesta no es universalmente aplicable, y no está exenta de críticas.
Hay argumentos válidos en contra. Mantener el modelo en secreto no elimina el riesgo: lo concentra en manos de una sola empresa y sus socios seleccionados. Si Anthropic puede desarrollar estas capacidades, otros laboratorios con recursos similares también pueden hacerlo, posiblemente sin los escrúpulos éticos que guían a la compañía. El dilema del dual-use en IA, tecnologías que sirven tanto para proteger como para atacar, no desaparece por no publicar. Solo cambia de forma.
Las consecuencias prácticas para empresas y equipos de seguridad
Para las organizaciones que gestionan infraestructura crítica, este episodio tiene una lectura práctica inmediata. Los modelos de IA avanzados ya son capaces de identificar vulnerabilidades que los equipos de seguridad humanos han pasado por alto durante décadas. Esto implica dos cosas simultáneamente: que la IA puede convertirse en el aliado más potente de cualquier equipo de ciberseguridad, y que en manos equivocadas representa la amenaza más sofisticada que han enfrentado.
Las empresas que dependen de OpenBSD, FreeBSD o cualquiera de los sistemas que han formado parte del análisis de Claude Mythos deberían prestar especial atención a las actualizaciones de seguridad publicadas en los próximos meses. Algunas de esas actualizaciones podrían estar directamente vinculadas a los hallazgos del Proyecto Glasswing, aunque la atribución rara vez sea pública. El ciclo de divulgación responsable, en el que el investigador notifica al fabricante antes de hacer público el fallo, se aplica aquí a escala sin precedentes.
El sector de la IA lleva tiempo prometiendo que la seguridad es una prioridad. Anthropic acaba de mostrar qué significa esa promesa cuando se convierte en práctica real: no publicar un modelo por decisión propia, coordinar con el ecosistema de seguridad global, y poner capital sobre la mesa para financiar la corrección de los problemas encontrados. Si el resto del sector seguirá este camino o continuará apostando por la publicación abierta como norma es la pregunta que definirá los próximos años del desarrollo de la inteligencia artificial avanzada.