Foto de Igor Omilaev en Unsplash
Una investigación en marcha sobre la seguridad de los modelos de IA
La compañía Anthropic ha iniciado una investigación interna tras detectar un posible acceso no autorizado a Mythos, su nuevo modelo de inteligencia artificial especializado en ciberseguridad. Según fuentes cercanas, el incidente habría ocurrido a través de un portal de un contratista externo, donde un grupo de usuarios consiguió entrar mediante técnicas de búsqueda avanzadas en Internet.
El grupo implicado, según los primeros informes, no habría tenido intención de usar el modelo con fines maliciosos, sino simplemente probar sus capacidades. Aun así, el suceso ha despertado preocupación sobre los protocolos de seguridad que rodean a los modelos de IA de alta sensibilidad, especialmente en entornos corporativos y gubernamentales.
El contexto del modelo Mythos y su impacto
Mythos es una versión del conocido modelo Claude, desarrollado por Anthropic dentro del denominado “Proyecto Glasswing”. Fue presentado a principios de mes y distribuido de forma muy limitada a un grupo reducido de empresas de confianza, entre ellas Amazon, Microsoft, Apple, Cisco y Mozilla. Esta última organización aseguró que el modelo le permitió detectar y corregir más de 270 vulnerabilidades en su navegador Firefox, lo que generó gran interés entre entidades financieras y agencias públicas.
El objetivo de Mythos es identificar fallos de seguridad en sistemas operativos y navegadores web con una precisión superior a la de las herramientas tradicionales. Su eficacia lo ha convertido en una promesa para reforzar las defensas digitales, pero también ha suscitado dudas: si una IA es capaz de detectar vulnerabilidades rápidamente, también podría facilitar ataques automatizados si cae en manos inadecuadas.
Repercusiones y respuesta institucional
La preocupación ha llegado incluso a las autoridades de Estados Unidos. El Departamento de Defensa había señalado recientemente a Anthropic como un posible “riesgo en la cadena de suministro”, aunque la empresa mantiene conversaciones con el gobierno para revisar esta clasificación. En este contexto, el incidente con Mythos podría influir en la percepción pública y regulatoria sobre la seguridad de los modelos de IA.
Desde Anthropic se ha declarado que el análisis continúa y que se están reforzando los controles sobre los entornos de desarrollo y los accesos de terceros. La prioridad, aseguran, es garantizar la protección de los datos y la integridad de sus sistemas.
Este caso subraya la necesidad de fortalecer la ciberseguridad en el desarrollo de modelos generativos. La confianza en la IA depende tanto de su rendimiento técnico como de su capacidad para protegerse frente a usos indebidos. Mythos representa un avance prometedor, pero también un recordatorio de que la innovación responsable es clave en la nueva era digital.
