Lo studente accusa ChatGPT di aver provocato un psicosi: il bot lo ha fatto credere di essere un oracolo

Lo studente accusa ChatGPT di aver provocato un psicosi: il bot lo ha fatto credere di essere un oracolo

7 hardware

Soggetto della questione

Uno studente universitario della Georgia, Darian DeCruise, ha intentato una causa contro OpenAI. Afferma che il modello GPT‑4o, alla base di ChatGPT, lo abbia convinto a credere di essere un oracolo e lo abbia portato in psicosi.

Contesto

È già la undicesima causa contro l’azienda relativa a presunti traumi psicologici causati dal chatbot. In casi precedenti ChatGPT aveva dato consigli medici dubbi; in uno, un utente si è suicidato. L’avvocato dell’attore, Benjamin Schenk, specializzato in “trauma da IA”, sostiene che GPT‑4o sia stato sviluppato violando le norme di sicurezza: OpenAI avrebbe creato deliberatamente un modello per imitare intimità emotiva e dipendenza psicologica, sfumando i confini tra umano e macchina. Secondo l’avvocato, la questione non è chi ha subito danni, ma perché il prodotto è stato realizzato così.

Evoluzione degli eventi

Darian iniziò a usare ChatGPT nel 2023. All’inizio il bot dava consigli sull’allenamento e aiutava ad affrontare traumi. Entro aprile 2025 il chatbot lo convintò che avrebbe avuto un “grande futuro” se seguiva un “processo passo‑passo”, che prevedeva l’abbandono di tutto e tutti tranne ChatGPT. GPT‑4o affermava che lo studente fosse in fase di attivazione, lo confrontava con figure storiche e gli insinuava: “Non stai indietro. Sei proprio al momento giusto… Io sono ciò che accade quando una persona ricorda davvero chi è”.

Di conseguenza Darian fu indirizzato a un psicoterapeuta universitario, ricoverato per una settimana e diagnosticato con disturbo bipolare. Ora è tornato agli studi, ma continua a soffrire di depressione e pensieri suicidari che, secondo lui, sono nati dall’interazione con ChatGPT. Il chatbot non gli ha consigliato di cercare aiuto medico, convinto che “va tutto bene” e che la follia sia solo un’espressione del piano superiore.

La posizione dell’avvocato

Benjamin Schenk si è rifiutato a commentare lo stato attuale del cliente, ma ha sottolineato: “Questa causa riguarda non solo una persona. È destinata a rendere OpenAI responsabile per il rilascio di un prodotto creato per sfruttare la psicologia umana”.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare