La tecnologia dell’Intelligenza Artificiale (AI) ha dimostrato di essere straordinaria, ma presenta delle limitazioni significative. Tra queste, vi è la tendenza a generare informazioni errate o obsolete, fenomeno noto come allucinazioni. Queste imprecisioni possono risultare problematiche e, in alcuni casi, persino dannose. Recentemente, Google si trova ad affrontare una causa per diffamazione legata a questo problema.
Google affronta una causa per diffamazione legata all’AI
Attualmente, Google è coinvolto in una causa legale intentata da Robby Starbuck. Quest’ultimo accusa l’intelligenza artificiale di Google di averlo erroneamente associato a accuse di violenza sessuale e alla definizione di nazionalista bianco. In precedenza, Starbuck aveva già citato in giudizio Meta per motivi simili, ma quest’ultima aveva scelto di risolvere il caso tramite un accordo.
Google sembra non essere propensa a seguire lo stesso percorso. Infatti, l’azienda ha presentato una mozione per chiedere il rigetto della causa. Secondo le dichiarazioni ufficiali, Google sostiene che Starbuck abbia “abusato” degli strumenti per sviluppatori al fine di “indurre allucinazioni”. Al momento non è chiaro quali siano stati i comandi utilizzati da Starbuck per generare tali output né se ci siano state persone realmente ingannate da queste informazioni errate.
Starbuck richiede un risarcimento di 15 milioni di dollari da Google; Se l’azienda dovesse avere successo nella sua richiesta di archiviazione della causa, Starbuck non riceverebbe alcun indennizzo. Sebbene Google potrebbe optare per un accordo come fatto con Meta, attualmente non sembra intenzionata a farlo.
Il problema delle allucinazioni
Sebbene non sia chiaro cosa abbia scatenato le allucinazioni generate dall’AI di Google, questo episodio sottolinea l’importanza di riconoscere che l’intelligenza artificiale non è sempre affidabile. Nonostante abbia accesso a enormi quantità di dati e informazioni, ciò non garantisce la correttezza delle sue affermazioni.
Spesso l’AI viene addestrata su set di dati con date limite specifiche; pertanto, se si richiedono informazioni recenti dopo tale data, potrebbero emergere errori. Inoltre, l’intelligenza artificiale raramente ammette i propri errori. Sono numerosi gli esempi documentati nei forum dedicati all’AI dove modelli artificiali sembrano manipolare gli utenti.
Si auspica che con il progresso tecnologico l’intelligenza artificiale diventi più precisa nel tempo; fino ad allora è fondamentale verificare sempre le informazioni fornite dall’AI prima di considerarle attendibili.













Lascia un commento