Google e OpenAI sono pronti a sostenere Anthropic in un processo per il conflitto con il Pentagono

Google e OpenAI sono pronti a sostenere Anthropic in un processo per il conflitto con il Pentagono

10 hardware

Breve riassunto della causa sui “fornitori non affidabili”

CosaFatti chiave
Natura della controversiaAnthropic ha intentato una causa in tribunale federale contro il Pentagono, chiedendo di rimuoverla dalla lista dei fornitori di IA “non affidabili”.
PartecipantiIn sostegno all’azienda si sono presentati rappresentanti di OpenAI e Google – quasi 40 dipendenti (tra cui Jeff Din, responsabile del progetto Gemini). Agiscono come privati, non come partner commerciali ufficiali.
GiustificazioneIl documento depositato in tribunale sostiene che l’esclusione di Anthropic sia un “atto di vendetta confuso”, che influisce negativamente sull’interesse pubblico.
Principali argomentiLa possibilità di sorveglianza totale dei cittadini minaccia la democrazia. I sistemi d’arma completamente autonomi richiedono un controllo speciale.
Chi si presenta in tribunale?Gli autori della lettera si definiscono scienziati, ingegneri e sviluppatori di sistemi IA americani. Si considerano competenti per avvertire le autorità sui rischi dell’uso militare dell’IA.
Importanza della causaLa lettera non è indirizzata a un’azienda specifica, ma alla protezione degli interessi dell’intero settore: “Vogliamo che le autorità comprendano i potenziali pericoli”, affermano gli esperti.
Situazione attuale dei datiSecondo loro, i dati sui cittadini statunitensi sono attualmente sparsi e non unificati da un’analisi IA in tempo reale. Teoricamente il governo potrebbe raccogliere un dossier su centinaia di milioni di persone, considerando i continui cambiamenti.
Pericoli dell’uso militare dell’IALa differenza tra le condizioni di addestramento dei modelli e l’ambiente operativo reale può portare a errori. L’IA non è in grado di valutare il potenziale danno collaterale come un essere umano. Le “allucinazioni” del modello rendono il loro utilizzo nei sistemi d’arma particolarmente rischioso senza controllo umano.
Conclusione degli espertiAttualmente le applicazioni IA proposte dal Pentagono rappresentano una minaccia seria. È necessario sia un limite tecnico, sia un controllo amministrativo.

Così, Anthropic e i suoi alleati di OpenAI/Google mirano non solo a proteggere la propria reputazione, ma anche a stabilire i parametri per lo sviluppo sicuro delle tecnologie IA negli Stati Uniti.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare