La questione della fiducia nell’Intelligenza Artificiale (AI) sta diventando sempre più rilevante. Le risposte fornite da questi modelli sono spesso presentate con una sicurezza tale che può risultare difficile metterle in discussione. Con il passare del tempo, i modelli di AI stanno mostrando un miglioramento significativo nelle loro capacità, ma emergono anche segnalazioni crescenti di allucinazioni da parte degli stessi.
l’aumento delle allucinazioni nell’intelligenza artificiale
Recenti indagini condotte da testate come The New York Times evidenziano un incremento delle allucinazioni nei sistemi di AI. Nonostante i progressi nella risoluzione di problemi matematici e nella capacità di ricerca approfondita, molti modelli continuano a fornire informazioni errate. Ad esempio, un bot di supporto tecnico per l’azienda Cursor ha erroneamente informato i clienti riguardo a una modifica della policy aziendale che non era mai avvenuta.
Inoltre, le prove effettuate su ChatGPT da OpenAI rivelano che i modelli più recenti tendono a generare allucinazioni con maggiore frequenza rispetto ai precedenti. In particolare, il modello o3 ha mostrato un tasso di allucinazione del 33%, mentre il modello o4-mini ha raggiunto addirittura il 48%.
La domanda chiave è se sia possibile risolvere questo problema. Secondo Amr Awadallah, CEO di Vectara e ex dirigente Google, la risposta è negativa: “Nonostante gli sforzi compiuti, le allucinazioni rimarranno sempre.”
cosa sono le allucinazioni?
Per comprendere meglio il fenomeno delle allucinazioni dell’AI, è importante sapere che si tratta di situazioni in cui un modello genera fatti inventati senza alcun fondamento reale. Alcuni esperti suggeriscono che queste anomalie possano derivare dalla complessità dei ragionamenti richiesti ai modelli stessi.
I modelli più semplici tendono a basarsi su previsioni ad alta affidabilità e corrono meno rischi. Al contrario, quelli dotati di capacità deduttive devono esplorare diverse possibilità e talvolta possono improvvisare, portandoli così a creare contenuti inesatti.
Di conseguenza, qualora si faccia uso dell’AI per scopi di ricerca, è opportuno verificare attentamente alcuni dati prima di considerarli attendibili. Sebbene possa sembrare controintuitivo, dedicare ulteriore tempo alla verifica delle informazioni può rivelarsi estremamente utile nel contesto lavorativo o accademico.
Lascia un commento