Google e l’ia: il rischio più grande mai affrontato

Recentemente, il modello di linguaggio Gemma di Google ha suscitato notevoli controversie dopo che ha generato un’affermazione falsa riguardante la senatrice Marsha Blackburn. Questo evento ha portato alla sua rimozione dalla piattaforma AI Studio, evidenziando le problematiche legate all’accuratezza e alla responsabilità degli strumenti di intelligenza artificiale.

rimozione del modello gemma da ai studio

Il modello Gemma era stato introdotto come un compagno AI innovativo all’interno della piattaforma AI Studio, concepito per assistere gli sviluppatori nella generazione di testi, bozze creative e riassunti. Tuttavia, è stato ritirato in seguito a una lettera formale inviata dal senatore Blackburn al CEO Sundar Pichai, nella quale si denunciava la diffusione di informazioni errate. In particolare, il modello aveva risposto a una domanda sulla senatrice con dichiarazioni infondate relative a presunti eventi accaduti durante la sua campagna elettorale.

accuse e difesa

Nella lettera, Blackburn ha categoricamente negato le affermazioni fatte da Gemma, sottolineando che non solo erano false ma che non esistevano nemmeno i riferimenti citati. Ha descritto l’accaduto come un atto di diffamazione prodotto da un modello AI appartenente a Google.

“Nessuna di queste affermazioni è vera… Questa non è una ‘allucinazione’ innocua. È un atto di diffamazione.”

conseguenze legali e implicazioni etiche

Nonostante la rimozione del modello dalla piattaforma pubblica, Google ha confermato che Gemma rimane accessibile tramite API per scopi di sviluppo e ricerca interna. L’incidente solleva importanti interrogativi sull’accountability, l’accesso pubblico agli strumenti AI e il confine tra errore e diffamazione.

  • Senatore Marsha Blackburn
  • Sundar Pichai (CEO di Google)
  • E esperti legali dell’industria

strategia futura di google

L’azienda sembra intenzionata a modificare la propria strategia offrendo modelli avanzati solo attraverso accessi controllati via API, sospendendo temporaneamente l’accesso pubblico fino a quando non saranno implementate misure protettive adeguate. Ciò implica che gli sviluppatori possono continuare le loro sperimentazioni mentre l’accesso per gli utenti comuni potrebbe essere limitato.

considerazioni finali

L’incidente con Gemma mette in luce come anche i modelli destinati agli sviluppatori possano avere ripercussioni significative su individui reali. Con l’intervento dei governi in materia di regolamentazione dell’intelligenza artificiale, aziende come Google potrebbero dover adottare misure più rigorose riguardo all’accesso pubblico ai loro strumenti.

Continue reading

NEXT

Chrome salva la tua patente, passaporto e dati del veicolo per facilitare la vita

Novità dell’autofill migliorato in Chrome Il browser Chrome introduce una nuova funzionalità di autofill che amplia le sue capacità, consentendo di memorizzare un numero maggiore di dati, inclusi i numeri di identificazione. Questa innovazione è disponibile a partire dal 3 […]
PREVIOUS

Come ottenere un credito di 10 dollari su YouTube TV dopo il ritiro dei canali Disney

informazioni essenziali su youtube tv YouTube TV offre un credito mensile di $10 a utenti selezionati dopo la rimozione dei canali Disney dalla piattaforma. I crediti non sono automatici e gli utenti devono controllare manualmente le impostazioni del proprio account […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]