Il Pentagono minaccia una risposta severa a Anthropic per il divieto di utilizzo di Claude nei sistemi di sorveglianza e armamento autonomo
Breve sintesi della situazione
Il ministro della Difesa degli Stati Uniti, Pete Hegseth, sta valutando la possibilità di interrompere tutti i rapporti commerciali con Anthropic, uno dei principali sviluppatori di intelligenza artificiale, e di dichiararla “minaccia alla catena di approvvigionamento”. Ciò significherebbe che qualsiasi appaltatore del Dipartimento dovrebbe terminare le relazioni con Anthropic. L’informazione è stata riportata da Axios, basandosi su una fonte all’interno del Pentagono.
Cosa viene discusso
Tema: Rottura dei legami
Hegseth afferma che “rompere questi legami sarà estremamente doloroso”, ma il Dipartimento intende costringere Anthropic a pagare per le misure forzate.
Principio di sicurezza
Sean Parnell, rappresentante ufficiale del Pentagono, ha sottolineato: “Richiediamo che i nostri partner aiutino le truppe a vincere in ogni battaglia”.
Relazioni attuali con Anthropic
Claude è l’unico modello AI utilizzato nei sistemi militari segreti degli Stati Uniti. È anche leader sul mercato commerciale e fu impiegato nell’ultima operazione in Venezuela.
Requisiti di sistema
Il Dipartimento vuole garantire che l’IA non venga usata per sorveglianza di massa sugli americani o per la creazione di armi autonome. Anthropic considera tali condizioni “eccessivamente restrittive” e sottolinea la presenza di “zone grigie” che le rendono inattuabili.
Negoziazioni con altri giganti
Il Pentagono sta anche discutendo con OpenAI, Google e xAI, richiedendo il diritto di utilizzare i loro modelli “per tutti gli scopi legittimi”.
Perché è importante
1. Scala del contratto
* Il contratto con il Dipartimento è valutato a 200 miliardi di dollari, mentre il fatturato annuo di Anthropic è di circa 14 miliardi di dollari.
2. Potenziale tecnologico
* Claude ha già dimostrato affidabilità e viene usato nelle reti segrete degli Stati Uniti; l’8 su 10 delle più grandi aziende americane sono clienti.
3. Politica di sicurezza
* Il Pentagono ritiene che l’IA possa significativamente potenziare le capacità di raccolta dati (messaggi sui social, permessi per il portamento nascosto di armi) e potenzialmente minacciare i civili.
4. Impatto sul settore
* Una posizione rigida su Anthropic stabilisce il tono per future negoziazioni con OpenAI, Google e xAI. Fino ad ora queste aziende hanno accettato di rimuovere le restrizioni per i sistemi militari non segreti, ma i loro modelli non sono ancora impiegati in operazioni completamente segrete.
Reazioni delle parti
- Anthropic
- Ha confermato l’impegno nell’utilizzo dell’IA per la sicurezza nazionale e ha sottolineato che Claude è stato il primo chatbot nelle reti segrete.
- È pronto a condurre “negoziazioni produttive e oneste” con il Dipartimento.
- Pentagono
- Secondo le fonti, è già da tempo insoddisfatto di Anthropic e vede la possibilità di innescare un conflitto.
- Si aspetta una conferma dell’assenza di legami con Anthropic per continuare la collaborazione.
Cosa succede dopo
* La decisione sullo status di Anthropic nella catena di approvvigionamento non è ancora stata presa.
* Il Pentagono intende stabilire la regola “uso per tutti gli scopi legittimi” per i modelli OpenAI, Google e xAI, ma la decisione finale è ancora in attesa.
In sintesi, il ministero sta considerando passi seri contro una delle principali aziende di IA, cercando al contempo di stabilire nuovi standard di sicurezza e controllo sui partner tecnologici.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare