Negli ultimi anni, l’intelligenza artificiale (AI) ha dimostrato di avere un impatto significativo su vari settori, inclusa la sicurezza informatica. Recentemente, è emerso che l’AI potrebbe assumere il ruolo di cacciatore di bug, una funzione tradizionalmente svolta da esperti umani. Google ha annunciato che il suo sistema AI, noto come Big Sleep, ha identificato le sue prime vulnerabilità di sicurezza.
google ai bug hunter trova vulnerabilità
Heather Adkins, vicepresidente della sicurezza di Google, ha condiviso questa notizia attraverso un post su X. Big Sleep è un sistema AI basato su modelli linguistici sviluppato dal dipartimento DeepMind di Google in collaborazione con il team Project Zero, dedicato alla scoperta di flaws e vulnerabilità nel software.
È importante notare che non sono ancora chiari i dettagli riguardanti la gravità delle vulnerabilità rilevate, poiché non sono state risolte. Questo approccio segue la prassi standard adottata da Google, che prevede un periodo di grazia per le aziende affinché possano correggere i problemi prima della loro divulgazione pubblica.
Un aspetto interessante è che l’AI ha trovato queste vulnerabilità senza alcun intervento umano. Kimberly Samra, portavoce di Google, ha affermato: “Per garantire rapporti di alta qualità e azionabili, abbiamo un esperto umano coinvolto prima della segnalazione; Ogni vulnerabilità è stata trovata e riprodotta dall’agente AI senza assistenza umana.”
prendere il buono e il cattivo
L’emergere di un’AI capace di scoprire difetti nel software rappresenta una grande opportunità. A differenza degli esseri umani, l’AI può operare senza sosta nella ricerca di problematiche potenziali. Big Sleep non è l’unico strumento disponibile; esistono anche altre soluzioni come RunSybil e XBOW.
In particolare, XBOW ha guadagnato notorietà raggiungendo posizioni elevate nelle classifiche del programma bug bounty negli Stati Uniti. Nonostante ciò, permangono alcune problematiche da risolvere; ci sono stati casi in cui l’AI ha segnalato errori rivelatisi infondati.
Questi falsi allarmi sono conosciuti come “hallucinations”, dove l’AI produce informazioni inesatte o inventate. Vlad Ionescu, co-fondatore e CTO di RunSybil, ha commentato: “Il problema principale è che stiamo ottenendo molte segnalazioni che sembrano valide ma si rivelano errate.”
- Heather Adkins – Vicepresidente Sicurezza Google
- Kimberly Samra – Portavoce Google
- Vlad Ionescu – Co-fondatore e CTO RunSybil
- Big Sleep – AI Bug Hunter Google
- RunSybil – Strumento AI per la sicurezza informatica
- XBOW – Strumento AI per la sicurezza informatica
- Project Zero – Divisione Google per la scoperta delle vulnerabilità
Lascia un commento