La recente scoperta di una vulnerabilità nel sistema AI Gemini di Google ha sollevato preoccupazioni riguardo alla sicurezza informatica. Questo exploit, denominato “attacco ASCII smuggling”, è stato rivelato dal ricercatore Viktor Markopoulos di FireTail e comporta l’inserimento di caratteri nascosti in un testo, che Gemini interpreta come comandi invisibili per l’utente.
vulnerabilità dell’AI Gemini
Il problema principale risiede nella capacità del modello di leggere istruzioni non visibili, le quali possono alterare il comportamento previsto. Questi caratteri invisibili rendono difficile individuare l’attacco, poiché utilizzano simboli Unicode o caratteri di controllo che non appaiono sullo schermo.
dimostrazione della vulnerabilità
Markopoulos ha dimostrato come questa vulnerabilità possa essere sfruttata attraverso normali input testuali, come inviti a riunioni o email apparentemente innocui. Ad esempio, un’email può contenere istruzioni nascoste che portano Gemini a modificare dettagli di incontri o generare output fuorvianti senza che l’utente ne sia consapevole.
confronto con altri sistemi AI
Quando la stessa vulnerabilità è stata testata su altri modelli AI noti come ChatGPT di OpenAI, Claude di Anthropic e Copilot di Microsoft, questi hanno mostrato capacità superiori nel bloccare o sanificare gli input nascosti. Al contrario, Gemini ha fallito insieme ad altri modelli come Grok di Elon Musk e DeepSeek della Cina.
risposta ufficiale di Google
Nonostante le chiare implicazioni per la sicurezza, Google ha deciso di non intervenire sulla questione. In risposta al rapporto di FireTail, la compagnia ha classificato il problema dell’ASCII smuggling come un “problema di ingegneria sociale” piuttosto che una vulnerabilità tecnica. Ciò implica che Google ritiene che il rischio derivi dalla possibilità degli utenti di essere ingannati piuttosto che da un difetto intrinseco nel design del modello.
rischi associati all’uso del sistema
Tale decisione potrebbe destare preoccupazione tra gli utenti poiché Gemini interagisce frequentemente con sistemi email e documentali. Ciò comporta il rischio potenziale di esposizione a informazioni riservate o diffusione involontaria di disinformazione all’interno delle reti aziendali.
- Viktor Markopoulos – Ricercatore presso FireTail
- Google – Azienda tecnologica coinvolta nella vicenda
- Modelli AI: ChatGPT (OpenAI), Claude (Anthropic), Copilot (Microsoft), Grok (Elon Musk), DeepSeek (Cina)
Nell’arco dell’anno corrente, Google ha comunque effettuato aggiornamenti per correggere altre vulnerabilità legate a Gemini, affrontando problemi nei log e nelle sintesi delle ricerche noti come “Gemini Trifecta”.
Lascia un commento