La industria de la inteligencia artificial acaba de cruzar una línea inquietante. Anthropic ha decidido no lanzar públicamente su nuevo modelo de IA, denominado “Mythos”, por considerarlo potencialmente demasiado peligroso.
En su lugar, la compañía ha optado por un despliegue restringido, casi experimental, limitado a unas pocas empresas estratégicas. Un movimiento sin precedentes que reabre el debate sobre hasta qué punto la IA avanzada puede convertirse en un riesgo sistémico para la seguridad global.
Mythos: la IA que encuentra fallos que nadie veía
El nuevo modelo, conocido internamente como Claude Mythos Preview, ha demostrado una capacidad fuera de lo común en el ámbito de la ciberseguridad.
Según la propia compañía, el sistema ha sido capaz de:
- Detectar miles de vulnerabilidades críticas en software real
- Encontrar fallos que llevaban décadas sin ser descubiertos
- Superar ampliamente la capacidad de auditoría humana tradicional
Incluso ingenieros de la propia empresa reconocen el salto cualitativo:
“Ha encontrado más vulnerabilidades en dos semanas que yo en toda mi vida”, según Nicholas Carlini, investigador de la compañía.
Un arma de doble filo: seguridad… y potencial ofensivo
El problema no es solo su eficacia.
Mythos no solo detecta errores en el código: también puede generar exploits funcionales, es decir, programas capaces de aprovechar esas vulnerabilidades.
Esto convierte al modelo en una herramienta con doble uso:
- Defensa: parchear sistemas críticos
- Ataque: explotar fallos de forma automatizada
Y ahí es donde surge el dilema central.
Un despliegue controlado con las grandes tecnológicas
Ante este escenario, Anthropic ha creado un programa restringido llamado Glasswing, en colaboración con un grupo muy limitado de compañías.
Entre ellas se encuentran algunos de los gigantes tecnológicos más influyentes del mundo:
- Apple
- Amazon Web Services
- Microsoft
- NVIDIA
- CrowdStrike
El objetivo es claro:
usar Mythos para parchear vulnerabilidades antes de que puedan ser explotadas por actores maliciosos.
Fallos críticos descubiertos en sistemas globales
Las pruebas del modelo ya han revelado vulnerabilidades graves en software ampliamente utilizado:
- Fallos con 27 años de antigüedad en OpenBSD
- Errores de seguridad en FFmpeg sin corregir durante 16 años
- Vulnerabilidades en el núcleo de Linux, uno de los sistemas más usados del mundo
Estos hallazgos ya han sido corregidos, pero muestran el alcance del problema.
El dilema de la IA: proteger o atacar
El caso de Mythos reabre una pregunta incómoda para toda la industria:
¿qué ocurre cuando una IA puede superar a los expertos humanos tanto en defensa como en ataque?
La situación recuerda a decisiones anteriores en el sector, como el retraso de modelos como GPT-2 por parte de OpenAI ante riesgos de uso malicioso.
Sin embargo, ahora el nivel de riesgo es más tangible:
no hablamos de desinformación, sino de fallos reales en infraestructuras críticas.
Entre la prudencia y el marketing
Pese al discurso de cautela, algunos expertos se preguntan si este movimiento también tiene una dimensión estratégica.
Al no publicarse abiertamente, Mythos se convierte en:
- Un activo exclusivo para grandes corporaciones
- Una herramienta de alto valor competitivo
- Un posible nuevo estándar en ciberseguridad privada
Un precedente incómodo para la industria tecnológica
Además de su decisión sobre Mythos, Anthropic ya ha estado en el centro del debate por su relación con gobiernos y su papel en contratos sensibles relacionados con seguridad y defensa.
Este nuevo episodio refuerza una tendencia clara:
la IA ya no es solo una herramienta tecnológica, sino un factor estratégico de poder global.
La pregunta que nadie quiere responder
Si una inteligencia artificial es demasiado potente para ser pública, surge una cuestión inevitable:
¿quién controla realmente la tecnología más avanzada del mundo si solo unos pocos pueden acceder a ella?
Porque en este nuevo escenario, el riesgo no es solo lo que la IA puede hacer…
sino quién decide cómo y quién la usa.

