OpenAI ha nominato un “capo della preparazione”, che si occuperà di curare la sicurezza dell'intelligenza artificiale

OpenAI ha nominato un “capo della preparazione”, che si occuperà di curare la sicurezza dell'intelligenza artificiale

7 software

OpenAI ha nominato un nuovo responsabile della sicurezza dell'intelligenza artificiale

In vista delle crescenti preoccupazioni per l'uso sicuro dell'IA, OpenAI ha annunciato un nuovo membro del team – Dylan Scandinaro come *Head of Preparedness* (direttore della preparazione).

Chi è Dylan Scandinaro?
Periodo Azienda Ruolo
Maggio 2023 – febbraio 2024 Anthropic Responsabile dei progetti di sicurezza IA
Settembre 2022 – maggio 2025 DeepMind (Google) Specialista in dati sintetici per l'addestramento di Gemini
Fino al 2022 Palantir, Unity Technologies, Everyday Robots Posizioni varie nel machine learning e nello sviluppo software

Scandinaro è noto per aver gestito compiti simili di riduzione dei rischi nella creazione di modelli IA nei suoi precedenti impieghi.

Cosa significa la nuova nomina?
* Ruolo: Posizione di vertice nel team *Preparedness*, responsabile della preparazione e dell'implementazione delle misure che consentiranno lo sviluppo di modelli potenti senza minacciare gli utenti.
* Condizioni: Retribuzione annuale di $550 000 più azioni OpenAI.
* Contesto: Dal 2023 l'azienda dispone del *Preparedness Team*, precedentemente guidato da Alexander Madrid, esperto dell'MIT.

Come vede la situazione il capo di OpenAI
Il CEO Sam Altman ha osservato che con l'accelerazione dello sviluppo dei modelli l'azienda affronterà rischi nuovi e più gravi. Ha sottolineato:

> “Lavoreremo su modelli estremamente potenti. Ciò richiederà misure adeguate per garantire ulteriori benefici”.

Altman ha espresso fiducia nelle competenze di Scandinaro:

*«È il miglior candidato per questo ruolo tra tutte le persone che abbia mai incontrato», – ha detto.*

Ha aggiunto che, grazie al nuovo responsabile, il team potrà concentrarsi sulla sicurezza a lungo termine e “sorriderà più tranquillo”.

Cosa ci si aspetta da Scandinaro?
Scandinaro stesso ha ammesso che i modelli IA in rapido sviluppo possono causare un danno “estremo e persino irreversibile”. Pertanto, la sua missione è:

* sviluppare strategie di mitigazione del rischio;
* implementare pratiche sicure per l'addestramento e l'esercizio dei modelli;
* coordinare gli sforzi dell'intero team OpenAI in questo ambito.

Conclusione
OpenAI amplia la propria struttura di sicurezza, assumendo un esperto proveniente dalle principali aziende del settore. La nuova nomina sottolinea l'impegno dell'azienda per lo sviluppo responsabile dell'IA e la preparazione alle sfide future.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare