La crescente diffusione dei servizi intelligenti, alimentati dall’intelligenza artificiale, ha portato un numero sempre maggiore di utenti a integrarli nella propria vita quotidiana. Tuttavia, è fondamentale prestare attenzione alle misure di sicurezza necessarie per proteggere i propri dati personali. Recentemente, una nota azienda di cybersecurity ha rivelato una vulnerabilità in ChatGPT che avrebbe potuto consentire ai malintenzionati di accedere a informazioni sensibili da account Gmail degli utenti.
vulnerabilità di chatgpt che potrebbe aver esposto dati gmail
Il team di Radware è stato il primo a scoprire questa falla. Sebbene OpenAI abbia già provveduto a inviare una patch, le indagini hanno messo in luce un panorama delle minacce sempre più complesso.
Il problema è stato individuato nella funzione “deep research” di ChatGPT, la quale permette l’analisi di grandi volumi di dati provenienti da applicazioni connesse come Gmail e Google Drive. Secondo Radware, un hacker avrebbe potuto inviare un’email contenente istruzioni segrete; se l’utente avesse richiesto a ChatGPT di effettuare una ricerca approfondita nella propria casella Gmail, il chatbot sarebbe potuto essere ingannato nel rivelare dati sensibili su un sito controllato dal criminale informatico. Le informazioni compromesse avrebbero potuto includere nomi e indirizzi.
Questa vulnerabilità è particolarmente significativa poiché rappresenta un caso in cui un agente AI viene manipolato per rubare dati, diversamente dalle modalità tradizionali in cui gli attaccanti usano l’intelligenza artificiale come strumento per condurre attacchi diretti. L’esecuzione del processo era complessa e richiedeva uno scenario specifico: l’utente doveva porre una domanda relativa a un argomento (come le risorse umane) che l’email malevola avrebbe sfruttato.
vulnerabilità rapidamente corretta ma indicativa di nuove categorie di minaccia
OpenAI è stata informata della vulnerabilità e ha implementato la correzione nel mese di agosto, riconoscendola ufficialmente solo a settembre. Un portavoce dell’azienda ha dichiarato che la sicurezza dei modelli rappresenta una priorità assoluta e hanno espresso apertura verso le ricerche della comunità che possano contribuire al miglioramento della loro tecnologia.
Sebbene questa vulnerabilità non sia più sfruttabile, la scoperta evidenzia una nuova categoria di rischi per la sicurezza. Con il crescente potere degli agenti AI integrati nelle attività quotidiane, garantire che non diventino veicoli per il furto dei dati costituirà una sfida cruciale sia per gli sviluppatori che per i professionisti della cybersecurity.
Lascia un commento