Anthropic, het AI-veiligheidsbedrijf achter de Claude-chatbot, heeft per ongeluk gevoelige informatie over een niet-uitgebrachte kunstmatig intelligentiemodel en vertrouwelijke bedrijfsgegevens blootgesteld via een verkeerd geconfigureerde openbare database, volgens beveiligingsonderzoekers die het lek hebben ontdekt.
De gelekte gegevens bevatten naar verluidt technische specificaties voor een model met codenaam 'Claude Mythos', dat lijkt te duiden op een significante vooruitgang in de AI-mogelijkheden van het bedrijf. Beveiligingsexperts die de blootgestelde informatie hebben geanalyseerd, suggereren dat het nieuwe model verbeterde redeneercapaciteiten zou kunnen bezitten en mogelijk zorgwekkende implicaties voor cyberbeveiliging.
De databaseblootstelling onthulde ook details over een aankomend exclusief evenement met de chief executive van Anthropic, wat vragen oproept over de gegevensafhandeling van het bedrijf terwijl het concurreert met OpenAI en Google in de snel evoluerende kunstmatige intelligentiemarkt.
Anthropic, opgericht door voormalige OpenAI-executives waaronder Dario en Daniela Amodei, heeft zich gepositioneerd als leider in AI-veiligheidsonderzoek. Het bedrijf heeft nadruk gelegd op verantwoorde ontwikkelingspraktijken en grondwettelijke AI-benaderingen die zijn ontworpen om systemen meer nuttig, onschadelijk en eerlijk te maken.
Het incident benadrukt voortdurende uitdagingen in de AI-industrie met betrekking tot informatiebeveiliging en bescherming van eigendomsonderzoek. Terwijl bedrijven wedijveren om steeds krachtigere taalmodellen te ontwikkelen, zou de onopzettelijke openbaarmaking van technische details concurrenten waardevolle inzichten kunnen geven in Anthropic's ontwikkelingsprogramma.