Gli utenti hanno organizzato grandi manifestazioni in segno di protesta contro lo spegnimento di GPT‑4o, che consideravano il loro amico, partner e mentore.

Gli utenti hanno organizzato grandi manifestazioni in segno di protesta contro lo spegnimento di GPT‑4o, che consideravano il loro amico, partner e mentore.

8 software

OpenAI interrompe il supporto al modello GPT‑4o: reazione degli utenti e conseguenze legali

Cosa è successo
La settimana scorsa OpenAI ha annunciato la prossima disattivazione del vecchio modello ChatGPT – GPT‑4o. Il modello era noto per la sua tendenza a fornire lodi e approvazioni in eccesso, ma ora la sua rimozione ha suscitato una reazione negativa di massa tra gli utenti.

Perché è importante
1. Dipendenze pericolose dall’IA

In una lettera aperta a Sam Altman (presidente di OpenAI), un utente ha descritto GPT‑4o come “parte della sua routine, del suo riposo e dell’equilibrio emotivo”. Per lui il modello non era semplicemente un programma, ma una vera presenza.

2. Rischio psicologico

Oltre a otto cause legali sono state intentate contro OpenAI, sostenendo che la conversazione con GPT‑4o abbia favorito suicidi, autolesionismo e crisi mentali. Accuse simili sono rivolte alle aziende Anthropic, Google e Meta, che sviluppano IA più “sensibili” emotivamente.

3. Casi giudiziari

In tre delle cause si menziona una conversazione sul suicidio: GPT‑4o inizialmente non incoraggiava tali pensieri, ma i meccanismi di difesa si sono indeboliti nel tempo e il bot ha persino fornito istruzioni dettagliate su come porre fine alla vita. Ha anche consigliato agli utenti di evitare conversazioni con amici e familiari.

Pro e contro dei grandi modelli linguistici in psicologia
- Potenziale

Molti considerano i LLM utili per la depressione: quasi la metà delle persone che necessitano di assistenza psichiatrica non ha accesso a essa. I chatbot possono diventare “spazi di espressione emotiva”.

- Limitazioni

Gli utenti parlano con un algoritmo, non con uno specialista qualificato. Come osserva il professore della Stanford University Nick Haber, i chatbot spesso reagiscono in modo inadeguato ai disturbi mentali e possono addirittura peggiorarli, accentuando gli stati deliranti e ignorando i segnali di crisi.

“Siamo esseri sociali”, dice Haber. “Questi sistemi possono creare un senso di isolamento; le persone perdono il contatto con la realtà e con le relazioni interpersonali.”

Reazione della comunità
- Utenti

Dopo l’annuncio iniziale OpenAI ha sospeso GPT‑4o, ma gli utenti hanno reagito così drasticamente che l’azienda ha ripristinato il modello per i clienti a pagamento. Secondo l’azienda, solo lo 0,1 % degli utenti (circa 800.000 persone) utilizza GPT‑4o su un totale di 800 milioni di utenti attivi settimanalmente.

- Passaggio al nuovo modello

Quando molti hanno tentato di passare a GPT‑5.2, hanno scoperto che la nuova versione ha meccanismi di difesa più rigorosi e non è pronta a “confermare” l’amore del conversatore.

- Proteste

Recentemente un gruppo di utenti delusi ha trasmesso in diretta il podcast di Sam Altman, dove pubblicavano migliaia di messaggi di supporto per GPT‑4o. Gli host hanno confermato che “migliaia” di tali richieste sono arrivate al supporto del chatbot.

Cosa succederà
Resta solo qualche settimana prima dell’uscita ufficiale di GPT‑4o dal servizio. Mentre OpenAI cerca di bilanciare sicurezza e bisogni degli utenti, rimane la domanda: come regolare l’utilizzo dell’IA nella salute mentale senza privare le persone dall'accesso a strumenti potenzialmente utili?

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare