Le agenzie federali stanno testando in segreto il modello di intelligenza artificiale avanzata Mythos di Anthropic per applicazioni di cybersicurezza, aggirando il divieto dell'amministrazione Trump sulle partnership governative con l'azienda di IA.

Secondo più fonti, il Centro per gli Standard e l'Innovazione dell'IA del Dipartimento al Commercio sta valutando attivamente le capacità di hacking di Mythos. Questi test avvengono nonostante le restrizioni ufficiali che sono seguite a una disputa contrattuale tra il Pentagono e Anthropic.

Staff del Congresso di almeno tre commissioni hanno tenuto o richiesto briefing da Anthropic nell'ultima settimana per comprendere le capacità di scansione informatica del modello. Questo coinvolgimento suggerisce un interesse più ampio del governo verso la tecnologia, oltre alla valutazione del Dipartimento al Commercio.

"Staff del Congresso di tre commissioni hanno richiesto briefing sulle capacità di scansione informatica di Mythos"

Mythos rappresenta il sistema di IA più sofisticato di Anthropic fino a oggi, in particolare per compiti di programmazione e operatività autonoma. L'azienda ha presentato il modello il 7 aprile, descrivendolo come il "più capace finora per la programmazione e i compiti agentici" — riferendosi alla sua capacità di operare in modo indipendente senza un costante controllo umano.

L'azienda sta discutendo di Mythos con l'amministrazione Trump anche dopo che il Pentagono ha interrotto i rapporti con l'azienda statunitense di IA a seguito di una disputa contrattuale.

Jack Clark, cofondatore di Anthropic — evento Semafor World Economy

I test rivelano le tensioni tra imperativi di sicurezza e restrizioni politiche. I funzionari governativi della cybersicurezza sembrano disposti a valutare strumenti di IA promettenti indipendentemente dai vincoli politici più ampi, soprattutto quando si tratta di valutare potenziali vulnerabilità nei sistemi critici.

La natura e l'entità di queste discussioni rimangono poco chiare. Né Anthropic, né la Casa Bianca, né il Dipartimento al Commercio hanno risposto alle richieste di commento sul programma di test o sull'apparente contraddizione con la politica dell'amministrazione.

Questa situazione evidenzia la complessa relazione tra lo sviluppo dell'IA e le priorità di sicurezza nazionale. Mentre l'amministrazione mantiene il divieto sulle partnership con Anthropic, singole agenzie sembrano fare valutazioni indipendenti delle implicazioni di sicurezza della tecnologia.

La disputa contrattuale del Pentagono con Anthropic non è stata resa pubblica, ma ha portato al divieto più ampio di collaborazione governativa con l'azienda. Tuttavia, i test in corso suggeriscono che le preoccupazioni di sicurezza potrebbero spingere le agenzie a trovare soluzioni alternative alle restrizioni esistenti.

◈ Come il mondo vede questa notizia2 prospettive
Unanime · Analitico2 Analitico
🇮🇳India
Economic Times Tech
Analitico

L'outlet indiano presenta questa come una semplice storia di contraddizione politica, concentrandosi sugli aspetti tecnici dei test di IA senza un'analisi geopolitica più approfondita. La loro prospettiva enfatizza le implicazioni aziendali e tecnologiche piuttosto che le tensioni strategiche tra governance dell'IA e priorità di sicurezza nazionale.

🇸🇬Singapore
Channel NewsAsia
Analitico

L'outlet di Singapore adotta un approccio misurato e basato sui fatti, riflettendo la posizione della città-stato come hub tecnologico neutrale. Sottolinea gli aspetti procedurali della valutazione governativa dell'IA, evitando commenti sulle tensioni politiche interne statunitensi, coerentemente con l'approccio diplomatico di Singapore nei confronti della competizione tecnologica tra USA e Cina.

Interpretazione AI
Le prospettive sono sintetizzate dall'IA a partire da articoli reali identificati nelle nostre fonti. Ogni testata e paese corrisponde a una fonte reale usata nell'analisi di questa notizia.