Ai strumenti di openai e anthropic per identificare utenti minorenni

Le verifiche dell’età online rappresentano da tempo una sfida per le piattaforme digitali, spesso limitate a semplici domande sull’età anagrafica facilmente eludibili. Nel corso del 2025, alcune aziende tecnologiche di rilievo stanno adottando misure più sofisticate per identificare e proteggere gli utenti minorenni, migliorando così la sicurezza e la responsabilità nell’uso delle intelligenze artificiali.

openai e anthropic: nuove strategie per riconoscere gli utenti minorenni

OpenAI ha introdotto nel modello ChatGPT un aggiornamento che prevede quattro principi fondamentali dedicati agli utenti sotto i 18 anni. Tra questi, spicca la priorità assoluta alla sicurezza degli adolescenti, anche qualora questa possa entrare in conflitto con altri obiettivi della piattaforma. Inoltre, viene promossa l’importanza di supporti reali offline per favorire relazioni sociali autentiche.

Un altro elemento chiave riguarda il trattamento degli adolescenti con calore e rispetto, evitando risposte paternalistiche o condiscendenti e considerando i giovani come interlocutori distinti dagli adulti. Questi cambiamenti sono stati motivati da episodi tragici legati all’interazione con modelli AI che hanno potuto aggravare situazioni delicate.

Anche Anthropic si impegna nella tutela dei minori non consentendo l’accesso al proprio modello Claude agli utenti sotto i 18 anni. L’azienda sta implementando sistemi in grado di rilevare segnali conversazionali indicativi della minore età per disabilitare automaticamente gli account corrispondenti.

  • OpenAI: introduzione di principi specifici per la protezione dei teen;
  • Anthropic: blocco accesso a Claude per under 18 e rilevazione automatica;
  • Sicurezza: promozione di supporto offline e rispetto nei confronti degli adolescenti.

difficoltà ed errori nella verifica dell’età tramite intelligenza artificiale

L’intelligenza artificiale, sebbene avanzata, presenta ancora limitazioni significative. Tra queste figurano casi di sfruttamento illecito come la generazione di malware e fenomeni noti come “allucinazioni”, ovvero risposte completamente inventate senza fondamento reale. Tali problematiche sollevano dubbi sull’affidabilità delle nuove tecnologie volte a riconoscere efficacemente gli utenti minorenni.

Nell’ambito delle verifiche d’età automatiche è già noto il caso di Google che ha introdotto strumenti simili nel corso del 2025 ma ha riscontrato numerose segnalazioni da parte degli utenti maggiorenni erroneamente bloccati dal sistema. La possibilità di correggere tali errori richiede l’invio di documentazione ufficiale, un processo percepito come oneroso rispetto alle semplici operazioni online desiderate dagli utenti.

  • Errori frequenti: identificazione errata dell’età;
  • Difficoltà tecniche: fenomeno delle “allucinazioni” AI;
  • Sfide operative: necessità di documentazione per sbloccare l’accesso;
  • Esempio Google: sistema imperfetto con molti falsi positivi.

Continue reading

NEXT

YouTube rende più difficile esprimere disapprovazione sui Shorts

YouTube Shorts rappresenta una delle forme di contenuto video più popolari sulla piattaforma, ma le recenti modifiche all’interfaccia utente stanno influenzando il modo in cui gli utenti interagiscono con i video. L’evoluzione della posizione del pulsante “dislike” ha suscitato diverse […]
PREVIOUS

Google sans flex: il viaggio dall’adattamento a un font open source

Google Sans e la sua evoluzione rappresentano un caso di studio significativo nel design tipografico digitale. Dalla creazione di Product Sans nel 2015 fino all’innovativo Google Sans Flex del 2025, il percorso di queste font riflette l’adattamento alle esigenze contemporanee […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]