L’espansione incontrollata dei video generati da intelligenza artificiale (AI) sta rivoluzionando il panorama digitale, con un aumento esponenziale della quantità di contenuti deepfake sulle piattaforme social. Questa crescita solleva importanti questioni legate all’identificazione e alla verifica dell’autenticità dei video, fondamentali per contrastare la disinformazione.
ai generati in rapida crescita sulle piattaforme social
I video creati tramite AI si sono moltiplicati rapidamente, passando da circa 500.000 clip nel 2023 a oltre 8 milioni previste nel 2025. Questi contenuti spesso presentano una qualità bassa e sono definiti come “contenuti spazzatura” dai media statunitensi. La diffusione massiccia è particolarmente evidente su Facebook e TikTok, dove la monetizzazione attraverso pubblicità stimola la produzione di video falsificati soprattutto da utenti di paesi in via di sviluppo che mirano al mercato americano.
Il fenomeno non si limita all’inganno diretto degli spettatori: l’eccessiva presenza di deepfake può infatti minare la fiducia generale nei confronti dei video autentici, dando origine a quella che viene definita la “dividendo del bugiardo”. Questo meccanismo permette a soggetti malintenzionati di negare responsabilità attribuendo le accuse a presunte manipolazioni digitali.
caratteristiche chiave per riconoscere i video ai
Un elemento cruciale per individuare i video generati artificialmente è la loro durata limitata. Secondo Hany Farid dell’Università della California a Berkeley, le società produttrici tendono a mantenere i filmati tra gli 8 e i 10 secondi, dato il costo computazionale elevato richiesto per produzioni più lunghe.
I video AI mostrano spesso caratteristiche stilistiche ricorrenti:
- Soggetto posizionato centralmente nell’inquadratura
- Azione ben definita all’inizio e alla fine del clip
- Movimenti della videocamera troppo fluidi o ravvicinati rispetto al protagonista
Tecnologie avanzate come il sistema ReStraV sviluppato da Google DeepMind riescono ad analizzare con precisione superiore al 97% queste caratteristiche temporali tramite reti neurali specializzate.
verifica delle fonti e metodi di controllo incrociato
L’analisi dell’origine del video rappresenta un altro aspetto fondamentale nella valutazione dell’autenticità. L’identità del canale o utente che pubblica il contenuto, così come la coerenza con altri post dello stesso profilo, possono fornire indizi rilevanti. La contraffazione retroattiva di anni interi di pubblicazioni risulta praticamente impossibile.
Sistemi innovativi come FakeCatcher utilizzano segnali fisiologici quali le variazioni del flusso sanguigno sul volto per identificare deepfake con una precisione vicina al 96%, consentendo inoltre una verifica quasi istantanea.
attenzione agli effetti emotivi e importanza della verifica multipla
I contenuti più diffusi sono spesso progettati per suscitare reazioni emotive intense o contrastanti rispetto alle convinzioni preesistenti del pubblico. Questo approccio mira ad aumentare l’interazione attraverso commenti e condivisioni, amplificando così la portata dei messaggi ingannevoli.
L’approccio consigliato consiste nel mantenere un atteggiamento critico verso tali materiali, effettuando ricerche approfondite mediante strumenti di ricerca inversa delle immagini o comparando fonti diverse per confermare o smentire le informazioni veicolate dal video. Spesso nelle sezioni commenti vengono segnalate anomalie o indicazioni sulla natura artificiale dei filmati stessi.
- Mike Caulfield, esperto in alfabetizzazione digitale
- Kolina Koltai, investigatrice indipendente sui media digitali
- Hany Farid, studioso universitario specializzato in manipolazione mediatica
- Sviluppatori Google DeepMind ReStraV system
- Sviluppatori Intel FakeCatcher system











Lascia un commento