google ritira il modello gemma da ai studio
In seguito a un grave errore, Google ha deciso di ritirare il suo modello Gemma dall’ambiente di sviluppo pubblico, noto come AI Studio. Questo provvedimento è stato adottato dopo che il modello ha erroneamente accusato la senatrice Marsha Blackburn di comportamenti criminali.
incidenti e conseguenze del ritiro
Il modello Gemma era stato progettato per supportare sviluppatori nella creazione di applicazioni utilizzando la famiglia di modelli open-source più leggeri offerti da Google. Sebbene fosse destinato esclusivamente a scopi di ricerca e sviluppo, qualcuno lo ha utilizzato in modo improprio come chatbot pubblico, portando a risultati disastrosi.
- Google ha ritirato Gemma dopo che ha diffuso false affermazioni sulla senatrice Blackburn.
- La senatrice ha definito le dichiarazioni dell’AI una forma di “diffamazione”.
- Le informazioni fornite da Gemma includevano link falsi o non funzionanti.
hallucinations dell’ai: un problema ricorrente
L’incidente mette in luce un problema più ampio riguardante le “hallucinations” delle AI, ovvero quando un modello produce informazioni false con sicurezza. Secondo Blackburn, non si è trattato solo di un errore innocuo, ma piuttosto di disinformazione presentata come verità. Anche i modelli concepiti per sviluppatori possono finire nelle mani del pubblico, aumentando così i rischi associati all’uso scorretto.
rischi reputazionali per google
Questo episodio rappresenta un colpo alla reputazione di Google in un momento critico in cui le aziende tecnologiche sono sotto esame per quanto riguarda l’accuratezza e la governance dei loro prodotti AI. L’azienda ha riconosciuto che ci sono stati tentativi da parte di non-sviluppatori di utilizzare Gemma per porre domande fattuali.
- Gemma è accessibile tramite API e precedentemente tramite AI Studio.
- L’utilizzo improprio può compromettere la fiducia degli utenti nel sistema.
- I problemi legati alle affermazioni errate possono avere ripercussioni legali e politiche significative.
Per gli sviluppatori e le aziende coinvolte nell’intelligenza artificiale, l’etichetta “non per Q&A fattuali” potrebbe non essere sufficiente a prevenire malintesi. Gli utenti continueranno a porre domande reali; quando il modello sbaglia, le conseguenze vanno oltre l’imbarazzo personale e possono influenzare seriamente la fiducia nel prodotto stesso.








Lascia un commento