Google ha rimosso silenziosamente gli AI Overviews relativi alle analisi del fegato dopo che è emerso che fornivano informazioni mediche errate e potenzialmente pericolose. Questa decisione segue un’indagine approfondita che ha evidenziato gravi carenze nel modo in cui l’intelligenza artificiale gestisce dati sensibili legati alla salute.
rimozione degli ai overviews per le ricerche sui test epatici
Gli AI Overviews sono funzionalità progettate per offrire risposte rapide e sintetiche direttamente nella pagina dei risultati di Google, evitando la necessità di consultare più link. Nel caso delle ricerche riguardanti i test epatici, è stato riscontrato che queste sintesi contenevano errori significativi.
L’indagine pubblicata da The Guardian ha rilevato che le informazioni fornite dall’IA erano troppo semplificate e prive di elementi essenziali come l’età, il sesso o l’etnia dell’individuo, fattori fondamentali per interpretare correttamente i valori degli esami del fegato. Tale mancanza di contestualizzazione potrebbe indurre pazienti con patologie epatiche gravi a sottovalutare la propria condizione e ritardare cure indispensabili.
limitazioni della rimozione e continuità delle imprecisioni
La risposta di Google ha riguardato esclusivamente la cancellazione degli AI Overviews associati a specifiche query segnalate come problematiche, ad esempio “qual è il range normale per i test del sangue al fegato”. Non si tratta quindi di una sospensione totale della funzione nelle ricerche sanitarie. Modificando leggermente la formulazione della domanda, infatti, gli utenti possono ancora visualizzare riassunti generati dall’IA contenenti gli stessi errori.
Vanessa Hebditch, rappresentante del British Liver Trust, ha evidenziato come termini alternativi come “lft reference range” continuino a produrre risultati inaccurati tramite AI Overviews. Ciò dimostra che le misure adottate non garantiscono una protezione completa contro la diffusione di informazioni mediche fuorvianti.
precedenti errori degli ai overviews in ambito sanitario
I problemi con gli AI Overviews non sono nuovi: in passato questa funzione aveva suggerito consigli bizzarri e non appropriati, come l’aggiunta di colla alla pizza. Nel settore medico, dove precisione e contestualizzazione sono imprescindibili, tali sviste assumono particolare gravità. Le tecnologie basate su modelli linguistici avanzati mostrano ancora difficoltà nell’elaborare dati complessi che richiedono interpretazioni probabilistiche ed eccezioni cliniche.
- Sundar Pichai (CEO di Google)
- Vanessa Hebditch (British Liver Trust)
- Membri del team Google Search AI
- Esperti sanitari coinvolti nell’indagine de The Guardian












Lascia un commento