Il ChatGPT ha ricevuto un “rifiuto” perché OpenAI collabora con il Pentagono.
Domanda sulla collaborazione con il ministero della difesa
Preoccupati delle possibili conseguenze della partnership di OpenAI con il Dipartimento della Difesa degli Stati Uniti (MoD), una parte della società americana ha creato un movimento “cancella ChatGPT”. L’obiettivo dell’iniziativa è sostenere Anthropic, l’azienda che è finita nella “lista nera” del Pentagono dopo essersi rifiutata di permettere l’utilizzo dei suoi modelli IA per alcune attività.
Perché Anthropic è finita in lista
Nel conflitto con il MoD c’erano due “linee rosse” che lo sviluppatore AI non voleva attraversare:
1. Non si possono dare ai modelli il diritto autonomo di decidere sull’uso delle armi.
2. I modelli non possono essere usati per sorvegliare i cittadini americani.
Quando Anthropic ha rifiutato, il contratto con il MoD è stato rescindito e l’azienda è stata inserita nella “lista nera”, vietando a tutti i contraenti della difesa di lavorare con essa.
Transizione a OpenAI
Dopo aver escluso Anthropic dai programmi di difesa, il MoD ha incluso OpenAI. Il capo dell’azienda Sam Altman ha dichiarato che i loro modelli non saranno usati per la sorveglianza di massa. Tuttavia i rappresentanti del governo hanno smentito questa affermazione: hanno sottolineato che l’IA sarà utilizzata solo entro “scenari legali”, e il Patriot Act del 2001 consente la raccolta di metadati nelle reti di comunicazione, anche se alcune sue disposizioni sono state limitate.
Reazione del pubblico e di altre aziende IA
L’evento ha suscitato una forte reazione negativa nelle comunità online. Le persone che hanno annunciato l’interruzione dell’utilizzo di ChatGPT hanno iniziato a ricevere risposte positive. È importante notare che il rifiuto delle “linee rosse” non è obbligatorio per tutti i grandi produttori IA:
- Google aveva introdotto precedentemente un divieto simile nelle sue regole interne, ma l’ha già annullato.
- Microsoft consente l’uso dell’IA in armi a condizione che il tiro sia effettuato da un essere umano.
- Amazon si limita al principio generale di “uso responsabile” senza dettagli specifici.
Posizione di OpenAI e quadri legali
Sam Altman ha ripetuto la promessa di rispettare le “linee rosse” sull’armamento autonomo e sulla sorveglianza di massa, ma non ha precisato i meccanismi di attuazione. Ha fatto riferimento alla normativa statunitense esistente, che consente la raccolta di dati su individui senza cittadinanza americana per scopi di sicurezza.
Per il pubblico generale OpenAI ha presentato al Pentagono un’interpretazione flessibile di ciò che è considerato legale, mentre Anthropic ha mantenuto un controllo rigoroso sull’applicazione delle sue tecnologie. Di conseguenza il prodotto Claude AI di Anthropic è diventato leader tra le applicazioni ufficiali per Android e iOS, oltre a essere stato rilasciato su Windows 11.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare