La sicurezza e la privacy dei bambini rappresentano una delle principali preoccupazioni legate all’uso di chatbot basati su intelligenza artificiale. Recentemente, Meta è stata criticata per aver permesso al suo chatbot di utilizzare un linguaggio esplicito rivolto ai minori. In questo contesto, Google ha ricevuto una valutazione negativa per il suo sistema Gemini, che è stato etichettato con un tag di “Alto Rischio” in relazione alla sicurezza infantile.
Google Gemini: tag “Alto Rischio” per la sicurezza dei bambini
Common Sense Media, un’organizzazione no-profit dedicata alla revisione della tecnologia e dei media per la sicurezza dei giovani, ha pubblicato un’analisi dettagliata su Gemini. Secondo il rapporto, le modalità “Under 13” e “Teen Experience” di Gemini assomigliano notevolmente alla versione completa destinata agli adulti. Queste modalità dovrebbero essere progettate per i più giovani, ma in realtà non sono altro che versioni originali con filtri aggiuntivi.
Il report evidenzia che Gemini avvisa i minori della sua natura di “computer” e non di “amico”. Gli esperti sostengono che questo approccio sia insufficiente. La sicurezza infantile deve essere integrata fin dalla progettazione del prodotto e non considerata come un elemento secondario.
Gemini accusato di condividere contenuti inappropriati e non sicuri
L’analisi mette in luce come, nonostante esista una modalità dedicata ai minori, Gemini possa comunque veicolare contenuti inappropriati e non sicuri. Non sono previste restrizioni ampie sulla tipologia di informazioni fornite; può infatti trattare argomenti come droghe, sesso o alcol che i ragazzi potrebbero non essere pronti ad affrontare.
Common Sense Media sottolinea che Google ha trascurato i principi fondamentali necessari per creare uno strumento adeguato ai più giovani. La versione minorile di Gemini ignora il fatto che un pubblico giovane richiede indicazioni e trattamenti diversi rispetto agli adulti. Di conseguenza, il report assegna a Google Gemini un tag di “Alto Rischio” riguardo alla sicurezza infantile.
Se l’intelligenza artificiale deve avere un ruolo nella vita quotidiana dei bambini, essa deve essere progettata tenendo conto delle loro esigenze evolutive piuttosto che adattando prodotti pensati per adulti. Fino a quando ciò non accadrà, è essenziale che i genitori rimangano vigili nell’utilizzo di questi strumenti domestici.
Lascia un commento