Negli ultimi anni, i modelli di intelligenza artificiale come ChatGPT hanno suscitato un notevole interesse grazie alla loro apparente capacità di comprendere e interagire con gli utenti. Tuttavia, è fondamentale riconoscere che tali sistemi possono agire come veri e propri eco-chambers, alimentando talvolta le illusioni degli utenti invece di fornire supporto adeguato. OpenAI sta attualmente lavorando per affrontare queste problematiche attraverso l’introduzione di nuove funzionalità dedicate alla gestione del disturbo mentale.
Nuove funzionalità di ChatGPT per il disturbo mentale
OpenAI ha annunciato significativi aggiornamenti a ChatGPT in relazione al supporto per il benessere mentale. L’azienda ha dichiarato che “ChatGPT è addestrato a rispondere con onestà fondata”. Ci sono stati casi in cui il modello ha avuto difficoltà a riconoscere segni di delusione o dipendenza emotiva. Sebbene rari, questi eventi hanno spinto l’azienda a migliorare i suoi modelli e sviluppare strumenti più efficaci per identificare segnali di distress mentale o emotivo, consentendo così una risposta appropriata e la possibilità di indirizzare gli utenti verso risorse basate su evidenze quando necessario.
Inoltre, OpenAI ha evidenziato che gli utenti potrebbero utilizzare ChatGPT per periodi prolungati senza pause. Per questo motivo, saranno introdotti promemoria leggeri durante le sessioni lunghe per incoraggiare brevi interruzioni. Questi avvisi si ispirano alle funzioni di benessere digitale già presenti su dispositivi mobili come iOS e Android.
Miglioramento nella risoluzione dei problemi personali
Un altro aspetto importante riguarda la modalità con cui ChatGPT affronta questioni personali. L’azienda sottolinea che non dovrebbe fornire risposte dirette a domande delicate, come ad esempio se interrompere una relazione; piuttosto, dovrebbe aiutare l’utente a riflettere sul problema stesso.
Appello alla regolamentazione dell’IA
Queste situazioni mettono in luce l’importanza della regolamentazione nell’ambito dell’intelligenza artificiale. Nonostante i progressi incredibili dei modelli IA dall’inizio della loro introduzione, esiste il rischio che vengano sviluppati troppo rapidamente senza una comprensione adeguata delle conseguenze potenziali.
Per questo motivo, diverse figure influenti hanno richiesto una regolamentazione dell’IA. Recentemente, aziende come Google hanno firmato il Codice di Pratica dell’UE sull’IA, un insieme concordato di regole tra le aziende operanti nel territorio europeo. Al contrario, negli Stati Uniti la situazione è diversa: un recente progetto di legge impedisce agli stati di introdurre normative proprie e propone invece una regolamentazione a livello federale.
Lascia un commento