Google rimuove risultati di ai overview che davano consigli medici allarmanti

Google ha rimosso silenziosamente gli AI Overviews relativi alle analisi del fegato dopo che è emerso che fornivano informazioni mediche errate e potenzialmente pericolose. Questa decisione segue un’indagine approfondita che ha evidenziato gravi carenze nel modo in cui l’intelligenza artificiale gestisce dati sensibili legati alla salute.

rimozione degli ai overviews per le ricerche sui test epatici

Gli AI Overviews sono funzionalità progettate per offrire risposte rapide e sintetiche direttamente nella pagina dei risultati di Google, evitando la necessità di consultare più link. Nel caso delle ricerche riguardanti i test epatici, è stato riscontrato che queste sintesi contenevano errori significativi.

L’indagine pubblicata da The Guardian ha rilevato che le informazioni fornite dall’IA erano troppo semplificate e prive di elementi essenziali come l’età, il sesso o l’etnia dell’individuo, fattori fondamentali per interpretare correttamente i valori degli esami del fegato. Tale mancanza di contestualizzazione potrebbe indurre pazienti con patologie epatiche gravi a sottovalutare la propria condizione e ritardare cure indispensabili.

limitazioni della rimozione e continuità delle imprecisioni

La risposta di Google ha riguardato esclusivamente la cancellazione degli AI Overviews associati a specifiche query segnalate come problematiche, ad esempio “qual è il range normale per i test del sangue al fegato”. Non si tratta quindi di una sospensione totale della funzione nelle ricerche sanitarie. Modificando leggermente la formulazione della domanda, infatti, gli utenti possono ancora visualizzare riassunti generati dall’IA contenenti gli stessi errori.

Vanessa Hebditch, rappresentante del British Liver Trust, ha evidenziato come termini alternativi come “lft reference range” continuino a produrre risultati inaccurati tramite AI Overviews. Ciò dimostra che le misure adottate non garantiscono una protezione completa contro la diffusione di informazioni mediche fuorvianti.

precedenti errori degli ai overviews in ambito sanitario

I problemi con gli AI Overviews non sono nuovi: in passato questa funzione aveva suggerito consigli bizzarri e non appropriati, come l’aggiunta di colla alla pizza. Nel settore medico, dove precisione e contestualizzazione sono imprescindibili, tali sviste assumono particolare gravità. Le tecnologie basate su modelli linguistici avanzati mostrano ancora difficoltà nell’elaborare dati complessi che richiedono interpretazioni probabilistiche ed eccezioni cliniche.

  • Sundar Pichai (CEO di Google)
  • Vanessa Hebditch (British Liver Trust)
  • Membri del team Google Search AI
  • Esperti sanitari coinvolti nell’indagine de The Guardian

Continue reading

NEXT

IPhone Air 2 più sottile e luminoso: tutte le novità attese

Apple sta lavorando a un aggiornamento significativo per la sua linea di smartphone ultra-sottili, con particolare attenzione al prossimo modello iPhone Air 2. Dopo il successo limitato del primo iPhone Air, soprattutto a causa delle compromissioni su batteria e fotocamera, […]
PREVIOUS

Sconto del 30% su turbotax deluxe 2025 per prepararsi alla stagione fiscale

La stagione delle dichiarazioni fiscali per il 2026 si avvicina rapidamente, rendendo fondamentale pianificare con anticipo la compilazione dei moduli. Sebbene la scadenza ufficiale sia fissata al 15 aprile, anticipare l’invio delle pratiche consente di gestire con calma ogni dettaglio […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]