Tecnología

11/04/2026 00:30

Anthropic decide no publicar su nuevo modelo de inteligencia artificial Mythos por seguridad

El riesgo de las vulnerabilidades masivas detectadas por Claude Mythos Preview

Anthropic decide no publicar su nuevo modelo de inteligencia artificial Mythos por seguridad

La prestigiosa empresa de inteligencia artificial Anthropic ha tomado una decisión sin precedentes en la industria al decidir no liberar al público general su modelo más avanzado hasta la fecha, denominado Claude Mythos Preview. Según los informes técnicos internos de la compañía, este nuevo sistema posee una capacidad analítica tan elevada que ha sido capaz de identificar miles de vulnerabilidades críticas en diversos tipos de software de uso global. Lo más alarmante para los expertos es que muchas de estas brechas de seguridad habían permanecido ocultas durante décadas, pasando totalmente desapercibidas para los desarrolladores humanos más experimentados y para las herramientas de diagnóstico tradicionales. La potencia bruta de Mythos representa un dilema ético y de seguridad de proporciones masivas para la industria tecnológica actual.

La iniciativa Glasswing y la búsqueda de una seguridad proactiva

Consciente del riesgo catastrófico que supondría que un modelo de esta magnitud cayera en manos equivocadas o fuera utilizado por actores estatales maliciosos, Anthropic ha lanzado de forma paralela el proyecto Glasswing. Esta iniciativa consiste en una alianza estratégica y hermética con 12 empresas tecnológicas líderes en sectores como las finanzas, la infraestructura crítica y las telecomunicaciones. El objetivo primordial de esta colaboración es utilizar las capacidades de detección de Mythos en un entorno controlado para parchear y corregir todas las brechas de seguridad antes de que cualquier otro modelo, ya sea de código abierto o desarrollado por competidores menos escrupulosos, pueda explotarlas. La prioridad absoluta del proyecto es blindar la infraestructura digital global frente a posibles ataques cibernéticos a gran escala que podrían paralizar servicios esenciales.

  • El modelo Mythos ha demostrado una eficiencia un 500% superior en el descubrimiento de errores de código complejos en comparación con modelos anteriores.
  • La colaboración empresarial mediante Glasswing permite una respuesta coordinada y rápida ante las amenazas detectadas por la IA.
  • El proyecto establece nuevos estándares éticos para el lanzamiento de modelos de IA con capacidades ofensivas potenciales.
  • Se estima que la corrección de estas vulnerabilidades llevará al menos dieciocho meses de trabajo intensivo bajo protocolos de máxima seguridad.

La decisión de Anthropic subraya una tendencia creciente y necesaria en el sector de la inteligencia artificial: el enfoque absoluto en la seguridad y la alineación de objetivos humanos. A medida que los modelos de lenguaje y razonamiento se vuelven más capaces, la posibilidad de que sean utilizados para crear malware sofisticado o desestabilizar sistemas financieros internacionales aumenta de forma exponencial. Al mantener oculto a Mythos, la empresa envía un mensaje claro sobre la responsabilidad social que conlleva el desarrollo de tecnologías disruptivas. Este enfoque preventivo busca evitar una carrera armamentística digital donde la capacidad ofensiva supere con creces a la capacidad de defensa, garantizando que el progreso de la inteligencia artificial se traduzca en beneficios tangibles y, sobre todo, seguros para la sociedad. La transparencia en el riesgo es ahora tan importante como la innovación en la capacidad.