La sicurezza informatica rappresenta una priorità per Google, che adotta diverse misure per garantire la protezione dei propri utenti. Recentemente, è emerso un problema relativo a Gemini, un sistema di intelligenza artificiale sviluppato dall’azienda, vulnerabile a un tipo di attacco noto come ASCII smuggling.
vulnerabilità del sistema Gemini
Un ricercatore di sicurezza, Viktor Markopoulos, ha condotto test su vari LLM (modelli linguistici di grandi dimensioni) e ha scoperto che Gemini risulta suscettibile a questi attacchi. In particolare, è stato rivelato che anche altri sistemi come DeepSeek e Grok presentano simili vulnerabilità. Al contrario, modelli come Claude, ChatGPT e Copilot hanno implementato misure di protezione efficaci.
che cos’è l’ASCII smuggling?
L’ASCII smuggling consiste nell’inserire messaggi malevoli in formati difficilmente rilevabili da parte degli utenti. Ad esempio, un aggressore potrebbe nascondere istruzioni segrete all’interno di una email utilizzando caratteri con font molto piccoli. Quando la vittima richiede a Gemini di riassumere il contenuto della email, il sistema potrebbe leggere anche queste istruzioni invisibili.
rischi associati all’attacco
I rischi derivanti da questo tipo di attacco sono significativi. Le istruzioni nascoste potrebbero indurre l’AI a cercare informazioni sensibili nella casella di posta o addirittura a inviare dati riservati. La situazione si complica ulteriormente considerando l’integrazione di Gemini con Google Workspace.
risposta di Google alla vulnerabilità
Dopo aver ricevuto la segnalazione da Markopoulos e aver assistito alla dimostrazione dell’attacco, Google ha classificato il problema non come un bug della sicurezza ma piuttosto come una tecnica di ingegneria sociale. Di conseguenza, l’azienda ha dichiarato che la responsabilità ricade sull’utente finale e non prevede patch per questa vulnerabilità in Gemini.
- Viktor Markopoulos – Ricercatore di sicurezza
- Google – Azienda produttrice
- Gemini – Sistema AI suscettibile
- DeepSeek – Altro modello vulnerabile
- Grok – Modello interessato dagli attacchi
- Claude – Modello sicuro
- ChatGPT – Modello protetto
- Copilot – Sistema con misure efficaci
Lascia un commento