Federale instanties testen stilletjes het geavanceerde AI-model Mythos van Anthropic voor cyberbeveiligingstoepassingen, ondanks het verbod van de Trump-administratie op overheidscontracten met dit AI-bedrijf.

Het Centrum voor AI-Standaarden en Innovatie van het ministerie van Handel evalueert actief de hackcapaciteiten van Mythos, volgens meerdere rapporten. Deze tests vinden plaats ondanks officiële beperkingen die volgden op een contractgeschil tussen het Pentagon en Anthropic.

Congresmedewerkers van ten minste drie commissies hebben de afgelopen week ofwel bijeenkomsten bijgewoond of briefings aangevraagd bij Anthropic om de cyber-scancapaciteiten van het model te begrijpen. Deze betrokkenheid suggereert een bredere overheidsbelangstelling voor de technologie dan alleen de evaluatie door het ministerie van Handel.

"Congresmedewerkers van drie commissies vroegen om briefings over de cyber-scancapaciteiten van Mythos"

Mythos vertegenwoordigt het meest geavanceerde AI-systeem van Anthropic tot nu toe, met name voor programmeer- en autonome taken. Het bedrijf kondigde het model op 7 april aan en beschreef het als hun "meest capabele tot nu toe voor programmeer- en agentieve taken" — wat verwijst naar de mogelijkheid om onafhankelijk te opereren zonder constante menselijke supervisie.

Het bedrijf bespreekt Mythos met de Trump-administratie, zelfs nadat het Pentagon zaken met het Amerikaanse AI-bedrijf stopzette naar aanleiding van een contractgeschil.

Jack Clark, medeoprichter van Anthropic — Semafor World Economy-event

De tests onthullen spanningen tussen veiligheidsimperatieven en politieke beperkingen. Overheidsfunctionarissen op het gebied van cyberbeveiliging lijken bereid om veelbelovende AI-tools te evalueren, ongeacht bredere beleidsbeperkingen, met name wanneer het gaat om het beoordelen van potentiële kwetsbaarheden in kritieke systemen.

De aard en reikwijdte van deze gesprekken blijven onduidelijk. Noch Anthropic, het Witte Huis, noch het ministerie van Handel reageerden op verzoeken om commentaar over het testprogramma of de schijnbare tegenstrijdigheid met het beleid van de regering.

Deze situatie benadrukt de complexe relatie tussen AI-ontwikkeling en nationale veiligheidsprioriteiten. Terwijl de regering vasthoudt aan het verbod op samenwerkingen met Anthropic, lijken individuele instanties onafhankelijke beoordelingen te maken van de veiligheidsimplicaties van de technologie.

Het contractgeschil tussen het Pentagon en Anthropic is niet publiekelijk gedetailleerd, maar leidde wel tot het bredere verbod op overheidsamenwerking met het bedrijf. De lopende tests suggereren echter dat veiligheidszorgen ertoe leiden dat instanties manieren zoeken om de bestaande beperkingen te omzeilen.

◈ How the world sees it2 perspectives
Unanimous · Analytical2 Analytical
🇮🇳India
Economic Times Tech
Analytical

De Indiase bron beschrijft dit als een duidelijke tegenstrijdigheid in beleid, met focus op de technische aspecten van AI-testing zonder diepgaande geopolitieke analyse. Hun perspectief benadrukt de zakelijke en technologische implicaties in plaats van de bredere strategische spanningen tussen AI-governance en nationale veiligheidsprioriteiten.

🇸🇬Singapore
Channel NewsAsia
Analytical

De Singaporese bron neemt een gematigde, feitelijke benadering aan die past bij de positie van de stadstaat als neutrale technologiehub. Zij benadrukken de procedurele aspecten van overheids-AI-evaluatie en vermijden commentaar op binnenlandse politieke spanningen in de VS, in lijn met Singapores diplomatieke aanpak van de technologische concurrentie tussen de VS en China.

AI interpretation
Perspectives are synthesized by AI from real articles identified in our sources. Each outlet and country reflects an actual news source used in the analysis of this story.