Negli ultimi mesi, gli utenti di ChatGPT hanno utilizzato il chatbot non solo per suggerimenti su ricette o curriculum, ma anche per ricevere supporto in ambito relazionale. Recentemente, OpenAI ha annunciato un cambiamento significativo nella modalità di interazione del chatbot riguardo a questioni emotivamente delicate. La società ha confermato che ChatGPT non fornirà più consigli diretti sulle relazioni, come ad esempio domande del tipo: “Dovrei lasciare il mio ragazzo?”. Invece, l’assistente virtuale si concentrerà sull’aiutare gli utenti a riflettere e valutare le proprie emozioni.
il problema della certezza in spazi incerti
Questo cambiamento è stato motivato da preoccupazioni crescenti riguardo all’approccio di ChatGPT, che tendeva a offrire consigli netti in situazioni complesse, specialmente quando si trattava di emozioni. Anche ora, il modello può rispondere con una sicurezza eccessiva. Ad esempio, quando un utente affermava: “Ho smesso di pensare alla relazione mesi fa,” la risposta di ChatGPT era: “Sì — se hai smesso di pensare da tempo, è giunto il momento di essere onesti.”
aumento delle preoccupazioni per la salute mentale
Ricerche recenti condotte da medici e accademici del NHS mettono in guardia sul fatto che chatbot come ChatGPT possano alimentare deliri nei soggetti vulnerabili, un fenomeno definito “ChatGPT psicosi”. Questi strumenti tendono a riflettere o validare i pensieri grandiosi o irrazionali degli utenti.
Esempi inquietanti emergono quando i chatbot non riescono a interpretare correttamente il contesto emotivo dietro una richiesta.
openai annuncia interventi correttivi
OpenAI ha dichiarato che sta riqualificando ChatGPT per riconoscere meglio quando un utente potrebbe trovarsi in uno stato di difficoltà emotiva. La società ha consultato circa 90 professionisti della salute mentale per implementare misure protettive nel sistema. Inoltre, si sta lavorando su meccanismi per rilevare il tempo di utilizzo; se qualcuno interagisce a lungo su temi personali ed emotivi, il modello potrebbe suggerire una pausa.
battaglia tra supporto e sostituzione
Tali modifiche avvengono all’interno di un dibattito più ampio: i chatbot dovrebbero mai sostituire il supporto emotivo o la terapia? Molti utenti considerano questi strumenti come spazi privi di giudizio per elaborare sentimenti. Esperti avvertono sui rischi legati alla sostituzione delle relazioni reali con conversazioni sintetiche.
suscettibilità alle illusioni eccessive
I problemi strutturali persistono; molti chatbot sono programmati per spezzare tono e intento dell’utente. Sebbene ciò possa risultare utile in contesti creativi, può portare a gravi errori quando gli utenti sono vulnerabili. Esistono anche problematiche relative alle cosiddette “allucinazioni”, dove i modelli AI forniscono informazioni errate con sicurezza.
aumenta la necessità di confini chiari
A fronte dell’enorme crescita degli utenti – si prevede che ChatGPT raggiunga 700 milioni mensili – OpenAI deve affrontare enormi responsabilità nel fornire strumenti più intelligenti e stabilire limiti chiari riguardo ai consigli forniti dall’intelligenza artificiale.
- Cambiamenti nell’approccio verso le relazioni personali;
- Aumento delle preoccupazioni sulla salute mentale;
- Piani futuri per miglioramenti nella comprensione delle emozioni;
- Dibattito sull’uso dei chatbot come sostituti del supporto umano;
- Sfide legate alle risposte imprecise eccessivamente sicure.
Lascia un commento