Le verifiche dell’età online rappresentano da tempo una sfida per le piattaforme digitali, spesso limitate a semplici domande sull’età anagrafica facilmente eludibili. Nel corso del 2025, alcune aziende tecnologiche di rilievo stanno adottando misure più sofisticate per identificare e proteggere gli utenti minorenni, migliorando così la sicurezza e la responsabilità nell’uso delle intelligenze artificiali.
openai e anthropic: nuove strategie per riconoscere gli utenti minorenni
OpenAI ha introdotto nel modello ChatGPT un aggiornamento che prevede quattro principi fondamentali dedicati agli utenti sotto i 18 anni. Tra questi, spicca la priorità assoluta alla sicurezza degli adolescenti, anche qualora questa possa entrare in conflitto con altri obiettivi della piattaforma. Inoltre, viene promossa l’importanza di supporti reali offline per favorire relazioni sociali autentiche.
Un altro elemento chiave riguarda il trattamento degli adolescenti con calore e rispetto, evitando risposte paternalistiche o condiscendenti e considerando i giovani come interlocutori distinti dagli adulti. Questi cambiamenti sono stati motivati da episodi tragici legati all’interazione con modelli AI che hanno potuto aggravare situazioni delicate.
Anche Anthropic si impegna nella tutela dei minori non consentendo l’accesso al proprio modello Claude agli utenti sotto i 18 anni. L’azienda sta implementando sistemi in grado di rilevare segnali conversazionali indicativi della minore età per disabilitare automaticamente gli account corrispondenti.
- OpenAI: introduzione di principi specifici per la protezione dei teen;
- Anthropic: blocco accesso a Claude per under 18 e rilevazione automatica;
- Sicurezza: promozione di supporto offline e rispetto nei confronti degli adolescenti.
difficoltà ed errori nella verifica dell’età tramite intelligenza artificiale
L’intelligenza artificiale, sebbene avanzata, presenta ancora limitazioni significative. Tra queste figurano casi di sfruttamento illecito come la generazione di malware e fenomeni noti come “allucinazioni”, ovvero risposte completamente inventate senza fondamento reale. Tali problematiche sollevano dubbi sull’affidabilità delle nuove tecnologie volte a riconoscere efficacemente gli utenti minorenni.
Nell’ambito delle verifiche d’età automatiche è già noto il caso di Google che ha introdotto strumenti simili nel corso del 2025 ma ha riscontrato numerose segnalazioni da parte degli utenti maggiorenni erroneamente bloccati dal sistema. La possibilità di correggere tali errori richiede l’invio di documentazione ufficiale, un processo percepito come oneroso rispetto alle semplici operazioni online desiderate dagli utenti.
- Errori frequenti: identificazione errata dell’età;
- Difficoltà tecniche: fenomeno delle “allucinazioni” AI;
- Sfide operative: necessità di documentazione per sbloccare l’accesso;
- Esempio Google: sistema imperfetto con molti falsi positivi.











Lascia un commento