Anthropic ha avvertito che il futuro modello Claude Mythos diventerà un “wonder-whack” per gli hacker.
Minacce informatiche da nuovi modelli AI: cosa devono sapere le aziende
Cosa cambia la situazione
Anthropic sta preparando Claude Mythos
Il sistema promette un accesso autonomo, preciso e complesso ai sistemi aziendali, governativi e municipali. Secondo Axios, nel 2026 il rischio di attacchi su larga scala con il suo supporto aumenterà significativamente.
Dichiarazioni di “avanguardia” rispetto ad altri AI
Nel blog di Anthropic si afferma che Mythos già supera qualsiasi modello esistente per capacità cyber e preannuncia una ondata di attacchi che supereranno gli sforzi difensivi.
Prime prove concrete
Alla fine del 2025, un gruppo sostenuto dallo Stato cinese ha utilizzato agenti AI per il hacking autonomo di circa 30 obiettivi in tutto il mondo. L'IA ha controllato autonomamente dal 80 % al 90 % delle azioni tattiche.
Nuove capacità dei sistemi agenziali
I modelli moderni permettono agli agenti di pensare, agire e improvvisare senza pause. La scala dell'attacco dipende ora dalla potenza computazionale del malintenzionato anziché dalla dimensione del team. Una sola persona può organizzare un attacco informatico complesso.
Aumento della vulnerabilità delle aziende
I dipendenti avviano sempre più spesso Claude, Copilot e altri modelli agenziali da dispositivi personali, creando agenti propri senza adeguato controllo. Ciò apre una nuova via di penetrazione per i criminali – “AI ombra”.
Valutazione degli esperti
Un sondaggio Dark Reading ha mostrato che il 48 % dei professionisti della sicurezza informatica considera l'IA agenziale il principale vettore d'attacco nel 2026, anche superiore ai deepfake e ad altri rischi.
Cosa fare ora
1. Comprendere il rischio – ogni dipendente deve riconoscere la minaccia di utilizzare agenti AI vicino a informazioni sensibili.
2. Ambienti isolati – il lavoro con IA agenziali dovrebbe avvenire in ambienti sicuri e isolati senza accesso diretto ai sistemi critici.
3. Controllo e audit – implementare politiche rigorose per controllare la creazione e l'uso di agenti AI proprietari all'interno dell'organizzazione.
4. Formazione del personale – condurre regolarmente corsi sul corretto uso sicuro delle nuove tecnologie.
Questa minaccia è riconosciuta come una delle più grandi per le aziende al momento, quindi la sua preparazione dovrebbe diventare una priorità nella strategia di sicurezza informatica.
Commenti (0)
Condividi la tua opinione — per favore, sii cortese e resta in tema.
Accedi per commentare