Agencias federales están evaluando en secreto el avanzado modelo de IA Mythos de Anthropic para aplicaciones de ciberseguridad, eludiendo la prohibición de la administración Trump sobre asociaciones gubernamentales con la empresa de inteligencia artificial.
El Centro para Normas e Innovación en IA del Departamento de Comercio está evaluando activamente las capacidades de piratería de Mythos, según múltiples informes. Estas pruebas se realizan a pesar de las restricciones oficiales que siguieron a una disputa contractual entre el Pentágono y Anthropic.
Personal del Congreso de al menos tres comités ha celebrado o solicitado reuniones informativas con Anthropic en la última semana para comprender las capacidades de escaneo cibernético del modelo. Este acercamiento sugiere un interés más amplio del gobierno en la tecnología, más allá de la evaluación del Departamento de Comercio.
Mythos representa el sistema de IA más sofisticado de Anthropic hasta la fecha, especialmente para tareas de codificación y operaciones autónomas. La empresa anunció el modelo el 7 de abril, describiéndolo como su "modelo más capaz hasta ahora para codificación y tareas autónomas", en referencia a su capacidad para operar de manera independiente sin supervisión humana constante.
La empresa está discutiendo Mythos con la administración Trump incluso después de que el Pentágono cortara relaciones con la empresa estadounidense de IA tras una disputa contractual.
Jack Clark, cofundador de Anthropic — evento Semafor World Economy
Las pruebas revelan tensiones entre los imperativos de seguridad y las restricciones políticas. Los funcionarios de ciberseguridad del gobierno parecen dispuestos a evaluar herramientas prometedoras de IA, independientemente de las restricciones políticas más amplias, especialmente al analizar posibles vulnerabilidades en sistemas críticos.
La naturaleza y el alcance de estas discusiones siguen sin estar claros. Ni Anthropic, la Casa Blanca ni el Departamento de Comercio respondieron a las solicitudes de comentarios sobre el programa de pruebas o la aparente contradicción con la política de la administración.
Esta situación destaca la compleja relación entre el desarrollo de IA y las prioridades de seguridad nacional. Mientras la administración mantiene su prohibición sobre las asociaciones con Anthropic, agencias individuales parecen estar realizando evaluaciones independientes de las implicaciones de seguridad de la tecnología.
La disputa contractual del Pentágono con Anthropic no ha sido detallada públicamente, pero resultó en la prohibición más amplia de colaboración gubernamental con la empresa. Sin embargo, las pruebas en curso sugieren que las preocupaciones de seguridad podrían estar impulsando a las agencias a buscar formas de eludir las restricciones existentes.
El medio indio presenta esta historia como una contradicción política directa, centrándose en los aspectos técnicos de las pruebas de IA sin un análisis geopolítico más profundo. Su perspectiva enfatiza las implicaciones empresariales y tecnológicas en lugar de las tensiones estratégicas entre la gobernanza de la IA y las prioridades de seguridad nacional.
El medio de Singapur adopta un enfoque mesurado y basado en hechos que refleja la posición de la ciudad-estado como centro tecnológico neutral. Destacan los aspectos procedimentales de la evaluación gubernamental de IA, evitando comentarios sobre las tensiones políticas internas de EE.UU., en línea con el enfoque diplomático de Singapur en la competencia tecnológica entre EE.UU. y China.