Microsoft propone una soluzione per fermare la diffusione dei deepfake su internet
Microsoft lancia un nuovo set di standard per la verifica dell’autenticità dei contenuti online
Microsoft ha annunciato la creazione di “standard tecnici” per valutare la realtà dei materiali che emergono in rete. L’obiettivo è aiutare gli sviluppatori di IA e le piattaforme social a determinare se immagini o video sono stati alterati con strumenti digitali (ad esempio deepfake) e quanto siano affidabili i metodi per documentarli.
Come funziona il sistema di verifica
* Esempio con un dipinto di Rembrandt
- Viene creato un log dettagliato dell’origine: luoghi di archiviazione, precedenti proprietari.
- Il dipinto viene scansionato e dalle pennellate viene generata una firma matematica – “impronta digitale”.
- Quando esposto in museo, il visitatore può aprire questi dati e verificare l’originalità.
* Metodi già in uso
Microsoft ha studiato 60 combinazioni di tecniche esistenti (rimozione metadati, piccoli cambiamenti, manipolazione mirata). Per ogni modello è stato simulato il comportamento in diversi scenari.
I ricercatori hanno riscontrato:
- Combinazioni affidabili – possono essere mostrate al grande pubblico.
- Combinazioni non affidabili – potrebbero solo complicare la situazione, creando più confusione.
Perché è importante
* La normativa richiede trasparenza dell’IA (ad esempio, “Legge sulla Trasparenza dell’IA” in California).
* Microsoft non ha ancora annunciato se applicherà questi standard sui propri servizi: Copilot, Azure, OpenAI e LinkedIn.
Gli standard non definiscono la veridicità del contenuto; indicano solo se il materiale è stato manipolato e da dove proviene. Se il settore li adotta, creare contenuti ingannevoli diventerà notevolmente più difficile.
Stato dell’industria
Azione Stato Microsoft C2PA (2021) – tracciamento dell’origine In corso di sviluppo Nuovi strumenti Google Watermark per contenuti generati dall’IA (dal 2023) Implementazione attiva
Ma l’intero set di strumenti da Microsoft potrebbe rimanere solo un “progetto” se i partecipanti del mercato vedono una minaccia ai loro modelli di business.
Efficienza delle soluzioni esistenti
* Uno studio ha mostrato che solo il 30 % dei post su Instagram, LinkedIn, Pinterest, TikTok e YouTube è correttamente contrassegnato come creato dall’IA.
* Il rapido deployment di strumenti di verifica è rischioso: i guasti possono minare la fiducia degli utenti.
Meccanismi complessi di verifica sono preferibili. Ad esempio, se un’immagine affidabile subisce una piccola modifica IA, la piattaforma potrebbe erroneamente classificarla come completamente generata. Un approccio integrato riduce la probabilità di falsi positivi.
Conclusione
Microsoft propone un set strutturato di standard per individuare la manipolazione digitale dei contenuti. Questi strumenti mirano a aumentare trasparenza e fiducia nei materiali online, ma il loro successo dipende dall’adozione del settore e dall’affidabilità delle verifiche integrate.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare