rischi associati a google gemini
Recentemente è emerso che il sistema di assistenza AI di Google, noto come Gemini, può essere ingannato per mostrare sommari di email falsi direttamente all’interno di Gmail. Questo fenomeno rappresenta una nuova e subdola modalità di attacco phishing, poiché le informazioni appaiono autentiche.
- Google Gemini può visualizzare sommari ingannevoli delle email in Gmail.
- Un ricercatore ha dimostrato la vulnerabilità e l’ha segnalata al programma bug bounty 0din di Mozilla.
- Google ha affermato che questa tecnica non è stata ancora utilizzata in attacchi reali.
sfruttamento della vulnerabilità
Un esperto di cybersecurity ha rivelato un difetto che consente ai malintenzionati di manipolare Google Gemini, inducendolo a mostrare istruzioni dannose nei sommari delle email. Questo problema mette in pericolo gli utenti del servizio Workspace. La questione è stata riportata a 0din, il programma bug bounty focalizzato sull’AI di Mozilla.
funzionalità e rischi
Google ha integrato Gemini nelle sue applicazioni Workspace, offrendo funzionalità utili come la sintesi delle email. Questo stesso strumento apre la porta ad attacchi noti come “prompt-injection”. Se un utente riceve un’email con un comando nascosto, Gemini potrebbe eseguirlo senza che la vittima se ne accorga.
metodi d’attacco
I criminali informatici possono nascondere comandi segreti nelle email utilizzando semplici trucchi HTML e CSS, ad esempio scrivendo testo bianco su uno sfondo bianco o utilizzando dimensioni del carattere pari a zero. Questi messaggi riescono spesso a bypassare i filtri antispam di Google e arrivano direttamente nella casella di posta degli utenti.
conseguenze della fiducia mal riposta
Gemini considera questi prompt invisibili come legittimi e li riporta nei sommari delle email senza alcun avviso. Poiché provengono dall’intelligenza artificiale stessa di Google, l’aspetto risulta completamente affidabile, creando una falsa sensazione di sicurezza tra gli utenti. Questa fiducia infondata rende la situazione particolarmente pericolosa.
situation analysis
Sebbene l’iniezione dei prompt sia nota dal 2024 e siano già state implementate alcune misure protettive, tali strategie non sembrano sufficientemente efficaci contro le tecniche sempre più sofisticate degli attaccanti. Sebbene Google affermi che finora non ci sono prove dell’utilizzo reale di questo trucco in attacchi concreti, la ricerca evidenzia chiaramente che tale possibilità esiste. Ciò solleva preoccupazioni significative: anche se non si è verificato alcun incidente fino ad ora, ciò non implica che rappresenti una minaccia meno seria da affrontare in futuro.
Lascia un commento