Anthropic, la empresa de seguridad en IA detrás del chatbot Claude, expuso inadvertidamente información sensible sobre un modelo de inteligencia artificial no lanzado y detalles empresariales confidenciales a través de una base de datos pública mal configurada, según investigadores de seguridad que descubrieron la fuga.
Los datos filtrados incluyen aparentemente especificaciones técnicas para un modelo con nombre en clave 'Claude Mythos', que parece representar un avance significativo en las capacidades de IA de la empresa. Los expertos en seguridad que analizaron la información expuesta sugieren que el nuevo modelo podría poseer habilidades de razonamiento mejoradas e implicaciones potencialmente preocupantes para la ciberseguridad.
La exposición de la base de datos también reveló detalles sobre un próximo evento exclusivo que presenta al director ejecutivo de Anthropic, lo que plantea preguntas sobre las prácticas de manejo de datos de la empresa mientras compite con OpenAI y Google en el mercado de inteligencia artificial en rápida evolución.
Anthropic, fundada por antiguos ejecutivos de OpenAI incluyendo Dario y Daniela Amodei, se ha posicionado como líder en investigación de seguridad en IA. La empresa ha enfatizado prácticas de desarrollo responsable y enfoques de IA constitucional diseñados para hacer que los sistemas sean más útiles, inofensivos y honestos.
El incidente destaca los desafíos continuos en la industria de IA con respecto a la seguridad de la información y la protección de la investigación patentada. A medida que las empresas compiten por desarrollar modelos de lenguaje cada vez más potentes, la divulgación accidental de detalles técnicos podría proporcionar a los competidores información valiosa sobre la hoja de ruta de desarrollo de Anthropic.