Secondo quanto riferito, Apple dovrebbe annunciare un nuovo sistema che utilizzerà algoritmi di hash per rilevare se nelle foto presenti nella libreria di un utente è presente materiale pedopornografico.
Tutto il processo avverrà sul dispositivo dell’utente, in nome della privacy. L’iPhone scaricherà una serie di “impronte digitali” che rappresentano contenuti illegali e quindi controllerà ogni foto nel rullino fotografico dell’utente. Presumibilmente, eventuali corrispondenze verranno segnalate solo all’utente. Questo tipo di sistema è simile alle funzionalità di machine learning utilizzato per l’identificazione di oggetti e scene già presenti in Apple Foto.
Tuttavia, l’esperto di crittografia e sicurezza Matthew Green osserva che le implicazioni di tale implementazione sono molteplici. Gli algoritmi di hash non sono infallibili e possono generare falsi positivi. Al momento non è chiaro se Apple consentirà ai governi di controllare il contenuto del database di queste “impronte digitali”. Questo database, infatti, potrebbe essere utilizzato per rilevare immagini diverse dal materiale pedopornografico. Ad esempio, potrebbero essere utilizzato per sopprimere l’attivismo politico.
Tuttavia, è bene ricordato che tutte le foto caricate su iCloud per il backup e la sincronizzazione vengono archiviate in forma crittografata nelle server farm di Apple. Le chiavi per la decrittografia, però, sono di proprietà di Apple. Ciò significa che le forze dell’ordine possono citare in giudizio Apple e vedere tutte le foto caricate da un utente. In futuro è possibile che Apple possa implementare un sistema per scansionare i contenuti lato client, che verranno successivamente archiviati su un server in modo crittografato end-to-end. Molti governi hanno richiesto un sistema simile ad app di messaggistica come iMessage e WhatsApp. Si teme che il crescente passaggio alle comunicazioni crittografate renderà più difficile per le forze dell’ordine trovare e perseguire casi di abusi sui minori.