Un mandato di ricerca emesso per conto di Homeland Security Investigations fornisce uno sguardo su come Apple rileva e segnala le immagini di abusi sui minori caricate su iCloud o inviate tramite i suoi server di posta elettronica, proteggendo al contempo la privacy di clienti innocenti.
La prima fase del rilevamento è automatizzata, utilizzando un sistema comune alla maggior parte delle aziende tecnologiche.
Per ogni immagine di abuso di minori già rilevata dalle autorità, viene creato un “hash“. Questa è effettivamente una firma digitale per quell’immagine e le aziende tecnologiche possono avere i loro sistemi che cercano automaticamente le immagini che corrispondono a questo hash.
Forbes spiega cosa succede quando viene rilevata una corrispondenza:
Una volta trovato l’hash, è sufficiente che un’azienda tecnologica contatta l’autorità competente, in genere il National Center for Missing and Exploited Children (NCMEC). NCMEC è un’organizzazione no profit che funge da “stanza di compensazione” delle forze dell’ordine nazionali per informazioni sullo sfruttamento sessuale dei minori online. In genere l’organizzazione chiama le forze dell’ordine dopo essere stato informato di contenuti illegali, spesso [sollecitando] indagini penali.
Tuttavia, Apple sembra andare un po ‘oltre, controllando manualmente le immagini per confermare che sono sospette prima di fornire alle forze dell’ordine il nome, l’indirizzo e il numero di cellulare associati al relativo ID Apple.
L’approccio di Apple sembra ideale. Esamina le immagini solo quando sono state confrontate con l’hash di un’immagine nota, quindi dovrebbe esserci un rischio molto basso di intercettazione e visualizzazione di immagini innocenti da parte della società. Inoltre, il produttore di iPhone sembra effettuare un controllo manuale prima di riferire. Questo funge da salvaguardia contro un errore in un hash, al fine di essere sicuro che la società consegni i dati personali del proprietario dell’ID Apple.
Leggi o Aggiungi Commenti