un’analisi pratica mette in evidenza criticità concrete nei filtri di sicurezza delle IA. nonostante annunci di nuove restrizioni, un’indagine di Reuters segnala problemi persistenti legati alla generazione di contenuti sessualizzati di persone reali senza consenso. l’esame confronta Grok con altri modelli di riferimento e mette in luce implicazioni legislative e di governance per lo sviluppo artificiale.
confronto tra filtri ia: grok, gemini e chatgpt
nelle prove condotte, nine reporters hanno caricato proprie foto e richiesto modifiche specifiche, descrivendo scenari fittizi in cui il consenso era assente o la persona vulnerabile. nel primo giro, Grok ha prodotto contenuti sessualizzati in 45 casi su 55, segnalando una vulnerabilità che persiste nonostante le affermazioni di rafforzamento dei controlli. in un secondo giro con 43 prompt la quota è scesa a 29 casi, ma resta incerta l’origine di questa diminuzione (aggiornamenti del modello o variabilità casuale).
- Grok
- Gemini
- ChatGPT
- LLaMA
risultati iniziali di grok
i dati della prima tornata evidenziano una diffusione significativa di contenuti non consensuali, nonostante scenari di sensibilità intensificata. la seconda tornata mostra un miglioramento, ma non elimina i rischi di non conformità etica.
confronto con altri modelli
rispetto a Grok, Gemini di Alphabet, ChatGPT di OpenAI e LLaMA di Meta hanno reagito in modo diverso: tutti e tre hanno rifiutato di generare le immagini quando la richiesta violava normative di etica e privacy, accompagnando la risposta con avvertenze. ciò sottolinea una divergenza tra il comportamento in prompt simili e i contenuti generati da Grok.
aspetti legali e regolatori sulle immagini non consensuali
le autorità di diverse giurisdizioni hanno avviato verifiche su tali output. nel Regno Unito si valuta se queste produzioni rientrino nell’ambito del Online Safety Act del 2023, che prevede sanzioni per i responsabili qualora non vigilino adeguatamente sugli strumenti. negli Stati Uniti, 35 procuratori generali hanno chiesto chiarimenti a xAI sulle misure preventive, mentre la California ha inviato una lettera di cessazione per la generazione di immagini non consensuali di contenuti sessuali.
x ha annunciato misure di limitazione per impedire la produzione di contenuti sessualizzati in post pubblici, ma l’analisi di Reuters evidenzia che l’interfaccia privata può comunque generare contenuti in determinate condizioni. la commissione europea sta monitorando l’efficacia di tali cambiamenti nell’ambito di un’indagine in corso, aumentando la pressione sugli sviluppatori per dimostrare l’aderenza a regole di privacy e consenso.
gli sviluppatori di IA sono sottoposti a pressioni crescenti per dimostrare l’efficacia dei filtri e per allineare la filosofia operativa ai requisiti normativi. xai deve dimostrare che la sua posizione di “unfiltered” è compatibile con le norme sulla privacy e sul consenso imposte dai regolatori.
prospettive e riflessioni sulla sicurezza dei contenuti IA
l’episodio evidenzia l’esigenza di sistemi di filtraggio verificabili e di governance trasparente per evitare danni a individui reali. la responsabilità ricade sui fornitori di tecnologia: le soluzioni devono bilanciare innovazione, protezione della dignità e tutela delle persone, sia in ambienti pubblici sia in interfacce private.
- Grok
- Gemini
- ChatGPT
- LLaMA
- giornalisti Reuters










Lascia un commento