La IA que detecta fallas ocultas durante décadas: el modelo que Anthropic decidió no liberar
Por EDITOR Abril 11, 2026 32
Una nueva herramienta de inteligencia artificial está sacudiendo el mundo de la ciberseguridad. La empresa Anthropic desarrolló un modelo experimental llamado Claude Mythos Preview capaz de detectar fallas profundas en programas informáticos, al punto de que la compañía decidió no ponerlo a disposición del público.
Durante sus pruebas, el sistema identificó miles de vulnerabilidades en diferentes tipos de software, algunas que habían permanecido ocultas durante décadas. Estas fallas representan errores en el código que pueden ser utilizados por atacantes para infiltrarse en sistemas o manipularlos.
La magnitud de los resultados sorprendió incluso a los expertos. El investigador de seguridad de la compañía, Nicholas Carlini, aseguró que el modelo encontró en apenas dos semanas más fallos de seguridad de los que él había detectado durante toda su carrera.
Para evitar que estas capacidades puedan ser explotadas con fines maliciosos, Anthropic impulsó una iniciativa llamada Glasswing. Este proyecto reúne a varias compañías tecnológicas con el objetivo de utilizar el modelo para localizar errores y corregirlos antes de que puedan ser aprovechados por ciberdelincuentes o por otras inteligencias artificiales similares.
Entre las empresas que participan en esta colaboración figuran gigantes tecnológicos como Apple, Amazon Web Services, Google, Microsoft, Nvidia y CrowdStrike, además de otras organizaciones responsables de infraestructura digital crítica. La compañía también ha mantenido contactos con el gobierno estadounidense para abordar los posibles riesgos.
En un inicio, el modelo estaba pensado simplemente como una nueva generación de herramientas de programación, tras el avance que representó Claude Sonnet 4.5 en la generación automática de código. Sin embargo, durante su desarrollo los ingenieros descubrieron que su capacidad para analizar programas lo hacía especialmente eficaz para detectar debilidades de seguridad.
Entre los hallazgos más relevantes se encuentran errores graves en plataformas ampliamente utilizadas. El sistema detectó una vulnerabilidad que llevaba 27 años sin ser descubierta en OpenBSD, otra de 16 años en la biblioteca multimedia FFmpeg y varias fallas en el núcleo del sistema operativo Linux que podían permitir a un usuario obtener control total sobre una máquina.
El modelo no solo identifica estas debilidades, sino que también puede generar el código necesario para explotarlas, lo que incrementa las preocupaciones sobre su posible uso indebido.
El nombre Mythos proviene del griego antiguo y hace referencia al conjunto de relatos con los que las civilizaciones interpretaban el mundo. Sin embargo, algunos especialistas consideran que la narrativa sobre su potencial peligrosidad podría tener también un componente de estrategia publicitaria.
Existe un antecedente similar en la industria tecnológica. En 2019, OpenAI decidió retrasar la publicación de su modelo GPT-2 por temor a que pudiera ser utilizado para generar campañas masivas de desinformación o spam.
En el caso de Mythos, la preocupación es distinta: la capacidad de encontrar vulnerabilidades reales en sistemas informáticos que sostienen gran parte de la infraestructura digital global.
La empresa también ha protagonizado recientemente un enfrentamiento con el Departamento de Defensa de Estados Unidos. El gobierno llegó a catalogar a Anthropic como un posible riesgo para la cadena de suministro, una medida que habría limitado su participación en contratos federales. La compañía llevó el caso ante los tribunales y obtuvo un fallo favorable.
Su fundador y director ejecutivo, Dario Amodei, ha insistido en que la empresa mantiene límites estrictos en el uso de su tecnología, incluyendo la prohibición de emplearla para vigilancia masiva de ciudadanos o para operar armas autónomas sin supervisión humana.
Mientras la carrera por desarrollar inteligencias artificiales cada vez más potentes se acelera, el caso de Mythos plantea una nueva inquietud en la industria tecnológica: qué ocurre cuando una máquina es capaz no solo de crear software, sino también de descubrir las grietas más profundas que existen dentro de él.
