Google ferma Gemma AI dopo affermazioni false su un senatore

google ritira il modello gemma da ai studio

In seguito a un grave errore, Google ha deciso di ritirare il suo modello Gemma dall’ambiente di sviluppo pubblico, noto come AI Studio. Questo provvedimento è stato adottato dopo che il modello ha erroneamente accusato la senatrice Marsha Blackburn di comportamenti criminali.

incidenti e conseguenze del ritiro

Il modello Gemma era stato progettato per supportare sviluppatori nella creazione di applicazioni utilizzando la famiglia di modelli open-source più leggeri offerti da Google. Sebbene fosse destinato esclusivamente a scopi di ricerca e sviluppo, qualcuno lo ha utilizzato in modo improprio come chatbot pubblico, portando a risultati disastrosi.

  • Google ha ritirato Gemma dopo che ha diffuso false affermazioni sulla senatrice Blackburn.
  • La senatrice ha definito le dichiarazioni dell’AI una forma di “diffamazione”.
  • Le informazioni fornite da Gemma includevano link falsi o non funzionanti.

hallucinations dell’ai: un problema ricorrente

L’incidente mette in luce un problema più ampio riguardante le “hallucinations” delle AI, ovvero quando un modello produce informazioni false con sicurezza. Secondo Blackburn, non si è trattato solo di un errore innocuo, ma piuttosto di disinformazione presentata come verità. Anche i modelli concepiti per sviluppatori possono finire nelle mani del pubblico, aumentando così i rischi associati all’uso scorretto.

rischi reputazionali per google

Questo episodio rappresenta un colpo alla reputazione di Google in un momento critico in cui le aziende tecnologiche sono sotto esame per quanto riguarda l’accuratezza e la governance dei loro prodotti AI. L’azienda ha riconosciuto che ci sono stati tentativi da parte di non-sviluppatori di utilizzare Gemma per porre domande fattuali.

  • Gemma è accessibile tramite API e precedentemente tramite AI Studio.
  • L’utilizzo improprio può compromettere la fiducia degli utenti nel sistema.
  • I problemi legati alle affermazioni errate possono avere ripercussioni legali e politiche significative.

Per gli sviluppatori e le aziende coinvolte nell’intelligenza artificiale, l’etichetta “non per Q&A fattuali” potrebbe non essere sufficiente a prevenire malintesi. Gli utenti continueranno a porre domande reali; quando il modello sbaglia, le conseguenze vanno oltre l’imbarazzo personale e possono influenzare seriamente la fiducia nel prodotto stesso.

Continue reading

NEXT

Aggiornamento google novembre 2025: strumenti intelligenti e pagamenti senza problemi

accesso negato a siti web Alcuni utenti possono trovarsi nell’impossibilità di accedere a determinati siti web, come nel caso di androidheadlines.com. Questa situazione è spesso causata da misure di sicurezza implementate per proteggere il sito da attacchi informatici. motivi del […]
PREVIOUS

Autofill di chrome ora supporta passaporto e patente di guida

accesso negato al sito web Il blocco dell’accesso a un sito web può risultare frustrante. Questo spesso è causato da misure di sicurezza implementate per proteggere il sito stesso da attacchi informatici. Le azioni che possono portare a tale interruzione […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]