Federale instanties testen stilletjes het geavanceerde AI-model Mythos van Anthropic voor cyberbeveiligingstoepassingen, ondanks het verbod van de Trump-administratie op overheidscontracten met dit AI-bedrijf.
Het Centrum voor AI-Standaarden en Innovatie van het ministerie van Handel evalueert actief de hackcapaciteiten van Mythos, volgens meerdere rapporten. Deze tests vinden plaats ondanks officiële beperkingen die volgden op een contractgeschil tussen het Pentagon en Anthropic.
Congresmedewerkers van ten minste drie commissies hebben de afgelopen week ofwel bijeenkomsten bijgewoond of briefings aangevraagd bij Anthropic om de cyber-scancapaciteiten van het model te begrijpen. Deze betrokkenheid suggereert een bredere overheidsbelangstelling voor de technologie dan alleen de evaluatie door het ministerie van Handel.
Mythos vertegenwoordigt het meest geavanceerde AI-systeem van Anthropic tot nu toe, met name voor programmeer- en autonome taken. Het bedrijf kondigde het model op 7 april aan en beschreef het als hun "meest capabele tot nu toe voor programmeer- en agentieve taken" — wat verwijst naar de mogelijkheid om onafhankelijk te opereren zonder constante menselijke supervisie.
Het bedrijf bespreekt Mythos met de Trump-administratie, zelfs nadat het Pentagon zaken met het Amerikaanse AI-bedrijf stopzette naar aanleiding van een contractgeschil.
Jack Clark, medeoprichter van Anthropic — Semafor World Economy-event
De tests onthullen spanningen tussen veiligheidsimperatieven en politieke beperkingen. Overheidsfunctionarissen op het gebied van cyberbeveiliging lijken bereid om veelbelovende AI-tools te evalueren, ongeacht bredere beleidsbeperkingen, met name wanneer het gaat om het beoordelen van potentiële kwetsbaarheden in kritieke systemen.
De aard en reikwijdte van deze gesprekken blijven onduidelijk. Noch Anthropic, het Witte Huis, noch het ministerie van Handel reageerden op verzoeken om commentaar over het testprogramma of de schijnbare tegenstrijdigheid met het beleid van de regering.
Deze situatie benadrukt de complexe relatie tussen AI-ontwikkeling en nationale veiligheidsprioriteiten. Terwijl de regering vasthoudt aan het verbod op samenwerkingen met Anthropic, lijken individuele instanties onafhankelijke beoordelingen te maken van de veiligheidsimplicaties van de technologie.
Het contractgeschil tussen het Pentagon en Anthropic is niet publiekelijk gedetailleerd, maar leidde wel tot het bredere verbod op overheidsamenwerking met het bedrijf. De lopende tests suggereren echter dat veiligheidszorgen ertoe leiden dat instanties manieren zoeken om de bestaande beperkingen te omzeilen.
De Indiase bron beschrijft dit als een duidelijke tegenstrijdigheid in beleid, met focus op de technische aspecten van AI-testing zonder diepgaande geopolitieke analyse. Hun perspectief benadrukt de zakelijke en technologische implicaties in plaats van de bredere strategische spanningen tussen AI-governance en nationale veiligheidsprioriteiten.
De Singaporese bron neemt een gematigde, feitelijke benadering aan die past bij de positie van de stadstaat als neutrale technologiehub. Zij benadrukken de procedurele aspecten van overheids-AI-evaluatie en vermijden commentaar op binnenlandse politieke spanningen in de VS, in lijn met Singapores diplomatieke aanpak van de technologische concurrentie tussen de VS en China.