La empresa californiana Anthropic, creadora del asistente Claude, encendió alarmas internacionales tras revelar la existencia de Mythos, un avanzado sistema de inteligencia artificial capaz de descubrir vulnerabilidades que permanecieron ocultas durante décadas en sistemas operativos, navegadores y servidores críticos usados por bancos, redes eléctricas y gobiernos.
Sin embargo, la firma decidió no liberar el modelo al público. En cambio, otorgó acceso limitado a 40 organizaciones estratégicas, entre ellas Amazon, Apple, Google, Microsoft y Nvidia. También fueron incluidos gigantes financieros como JPMorgan y Goldman Sachs. Fuera de Estados Unidos, únicamente el Reino Unido obtuvo acceso.
La decisión desató preocupación en Europa. El Banco Central Europeo ya consulta discretamente a bancos sobre sus defensas digitales, mientras la Comisión Europea habría buscado reuniones con Anthropic sin éxito. Expertos advierten que una empresa privada ahora controla quién puede protegerse de una herramienta que ella misma desarrolló.
Anthropic argumenta que restringir Mythos evita usos maliciosos y estima que en 18 meses surgirán tecnologías similares. No obstante, confirmó que usuarios no autorizados lograron ingresar al sistema mediante un proveedor externo el mismo día del anuncio. Además, reportes indican que menos del 1% de las fallas detectadas han sido corregidas.
El caso exhibe una nueva realidad: la carrera por la IA de frontera ya no parece una simple competencia comercial, sino una disputa geopolítica. Mientras América Latina, África y parte de Asia quedan fuera, crece el debate sobre quién debe regular el acceso a herramientas capaces de redefinir la ciberseguridad mundial.

