West virginia contro apple icloud per fermare contenuti csam

un quadro legale recente mette a confronto la west virginia con apple, accusando la società di non aver adottato misure adeguate per prevenire la condivisione di materiale di abuso sessuale su csam attraverso icloud e altri servizi. l’azione evidenzia lacune percepite nell’approccio al rilevamento di contenuti illeciti, a fronte di strumenti più evoluti disponibili nel settore. d altra parte, apple sostiene un impegno costante per la protezione dei minori e la privacy degli utenti all’interno del proprio ecosistema digitale.

apple affronta una nuova causa per non aver impedito la diffusione di csam su icloud

l’avvocato generale JB McCuskey ha sottolineato che la querela si concentra su cosiddette lacune nell’approccio di apple al rilevamento del csam sui dispositivi e sui servizi cloud. secondo l’accusa, altre grandi aziende tech utilizzano sistemi automatizzati di hashing per identificare e bloccare immagini illegali note, mentre apple avrebbe trascurato strumenti avanzati, lasciando margine di circolazione di contenuti dannosi all’interno dell’ecosistema iCloud.

nel testo della denuncia, si afferma che la scelta di non implementare in modo permanente tali strumenti ha creato opportunità per la diffusione di file dannosi all’interno dello spazio di archiviazione di iCloud, compromettendo la sicurezza degli utenti e la conformità normativa in materia di protezione dei minori.

in passato, apple aveva annunciato nel 2021 un piano per analizzare alcune foto caricate in iCloud negli Stati Uniti, confrontando dati delle immagini con una banca dati di materiale abusivo. se il parametro di soglia fosse stato raggiunto, sarebbero stati generati rapporti. Dopo mesi di dibattito pubblico, la funzione fu sospesa e poi abbandonata, con l’azienda che dichiarò la necessità di trovare un equilibrio tra sicurezza e privacy.

gli avvocati di stato chiedono quindi sanzioni economiche e un’ordinanza giudiziale che imporrebbe ad apple l’adozione di sistemi di rilevamento CSAM. la parte pubblica sostiene che tali strumenti dovrebbero restare operativi in via permanente, per garantire una protezione più efficace contro contenuti illegali.

in risposta, apple ribatte che la protezione della sicurezza infantile e la privacy degli utenti restano valori centrali. l’azienda richiama anche i suoi strumenti di controllo parentale e le misure di sicurezza delle comunicazioni, che avvertono i giovani quando vengono rilevati contenuti sensibili in messaggi, foto condivise, AirDrop o chiamate FaceTime. inoltre, apple continua a investire in sistemi avanzati per salvaguardare la privacy e i dati degli utenti, sostenendo un orizzonte orientato all’innovazione responsabile.

Continue reading

NEXT

Meta piattaforme dove gli utenti sono esposti alle truffe più spesso

i social media rappresentano un contesto ad alto rischio per truffe e annunci ingannevoli. sulle piattaforme di meta, gli utenti sono esposti quotidianamente a miliardi di annunci fraudolenti, generando entrate pubblicitarie illegali stimate in quasi 7 miliardi di dollari all’anno. […]
PREVIOUS

Galaxy a57 e galaxy a37 in arrivo a marzo novità e anticipazioni

cominicazioni recenti provenienti dall’ambiente tecnologico indicano che i modelli galaxy a57 e galaxy a37 dovrebbero essere presentati nel mese di marzo, con un focus mirato a specifiche avanzate, prestazioni e resistenza. nonostante l’attenzione sia rivolta alla gamma s26, le indiscrezioni […]

Potrebbero interessarti

Commenti

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

I più popolari

Di tendenza

Per guestpost o linkbuilding scrivi a [email protected]Segnala a Zazoom - Blog Directory