Anthropic ha fatto scendere i prezzi di CrowdStrike e Cloudflare avviando lo strumento AI Claude Code Security per la ricerca di bug.

Anthropic ha fatto scendere i prezzi di CrowdStrike e Cloudflare avviando lo strumento AI Claude Code Security per la ricerca di bug.

5 hardware

Il mercato cyber risponde al lancio di Claude Code Security di Anthropic

*In risposta all'annuncio del nuovo strumento di cybersicurezza di Anthropic, le azioni di aziende come CrowdStrike e Cloudflare sono scese di circa l'8%. Gli investitori vedono in Claude Code Security un serio concorrente delle soluzioni tradizionali per la rilevazione delle vulnerabilità.*

Cosa distingue Claude Code Security dai scanner classici
- Nessuna regola statica – la rete neurale non si basa su basi predefinite.

- Si immerge nella logica dell'applicazione, traccia i flussi di dati e le relazioni tra componenti, riproducendo il lavoro di un esperto di sicurezza.

- Questo approccio consente di individuare problemi che potrebbero rimanere inosservati con gli analizzatori statici tradizionali.

Come iniziare a usare lo strumento
1. Collegamento al repository – è necessario collegare Claude Code Security al progetto su GitHub.

2. Avvio della scansione – il sistema scansionerà automaticamente il codice e rileverà una vasta gamma di minacce, ad esempio:

- mancanza di filtraggio dell'input utente (SQL‑injection);

- errori logici complessi che consentono di bypassare l'autenticazione.

Rapporto sulle vulnerabilità trovate
- Le vulnerabilità sono ordinate per priorità.

- Per ogni problema viene generata una spiegazione dettagliata in linguaggio naturale, accelerando il lavoro degli analisti.

- Sotto la descrizione dell'errore è disponibile una funzione di creazione del patch, che consente di ottenere un frammento di codice corretto pronto all'uso dall'IA.

Confronto con soluzioni analoghe
- Claude Code Security è stato rilasciato circa quattro mesi dopo il lancio dello strumento Aardvark di OpenAI.

- Entrambi i prodotti offrono funzionalità simili: testano le vulnerabilità in un ambiente isolato e valutano la difficoltà della loro sfruttabilità.

Prospettive di sviluppo
Gli esperti ritengono che Anthropic e OpenAI possano integrare direttamente i propri sistemi nei pipeline di sviluppo (CI/CD). Ciò consentirebbe di bloccare automaticamente il rilascio del codice con "buchi" di sicurezza e accelerare la distribuzione del prodotto senza compromessi sulla protezione.

Commenti (0)

Condividi la tua opinione — per favore, sii cortese e resta in tema.

Non ci sono ancora commenti. Lascia un commento e condividi la tua opinione!

Per lasciare un commento, accedi.

Accedi per commentare