Messaggi in iOS 15.2 rileva la presenza di nudità nelle immagini inviate ai bambini

Communication Safety è la nuova funzionalità di iOS 15.2 integrata da Apple per proteggere i più piccoli nell'app Messaggi.

Con iOS 15.2, Apple ha attivato la funzionalità Communication Safety nell’app Messaggi, che servirà a migliorare la sicurezza per i bambini che utilizzano la piattaforma di messaggistica.

 


Communication Safety è una funzione di condivisione familiare che può essere abilitata manualmente dai genitori nell’app Messaggi o nelle impostazioni. Quando questa funzionalità è attivata, l’app Messaggi è in grado di rilevare la presenza di nudità all’interno delle immagini inviate o ricevute dai bambini. Communication Safety è disponibile solo sui dispositivi configurati per i minori di 18 anni e che fanno parte di un gruppo Condivisione Famiglia, quindi non può essere attivata sugli account di persone che hanno più di 18 anni.

Se un bambino riceve o tenta di inviare una foto con nudità, l’immagine verrà sfocata e il bambino verrà avvisato del contenuto, gli verrà detto che può non visualizzare la foto e gli verranno mostrate risorse per contattare qualcuno di cui si fida per chiedere aiuto. In particolare, sarà avvisato che l’immagine mostra “parti del corpo che di solito sono coperte da biancheria intima o costumi da bagno“. La funzione spiega che le foto con nudità possono essere “usate per violenze” e che la persona nella foto potrebbe non volerla vedere se è stata condivisa senza permesso. In ogni caso, il bambino può comunque accettare di vedere la foto, malgrado l’avviso.

Quando Communication Safety è stato annunciato per la prima volta, Apple ha affermato che i genitori dei bambini di età inferiore ai 13 anni avevano la possibilità di ricevere una notifica se il bambino visualizzava un’immagine di nudo in Messaggi. Questa funzione è stata poi rimossa e non è presente su iOS 15.2, per cui i genitori non riceveranno notifiche. Il motivo è legato al fatto che l’opzione di notifica ai genitori potrebbe rappresentare un rischio per il bambino, nel caso in cui subisca violenze o abusi proprio da uno o da entrambi i genitori. Per tutti i bambini, compresi quelli di età inferiore ai 13 anni, Apple offrirà invece una guida su come ottenere aiuto da un adulto fidato in ogni situazione in cui sono coinvolte foto di nudo.

Il controllo della nudità nelle foto viene eseguita sul dispositivo e non via server, con l’app Messaggi che analizza le immagini allegate tramite IA. La tecnologia utilizzata è simile a quella dall’app Foto che identifica animali domestici, persone, cibo, piante e altri elementi nelle immagini. La funzione non influisce sulla crittografia end-to-end dei messaggi e nessuna indicazione del rilevamento di nudità lascia il dispositivo. Apple non ha accesso ai Messaggi sui dispositivi dei bambini, né riceve una notifica se e quando Communication Safety è abilitato o utilizzato.

Oltre a Communication Safety, entro fine anno Apple prevede di espandere Siri con risorse che aiuteranno bambini e genitori a evitare situazioni online pericolose. Gli utenti che chiedono a ‌Siri‌ come denunciare lo sfruttamento minorile, ad esempio, riceveranno informazioni su come presentare una denuncia. Se un utente di un dispositivo Apple esegue una ricerca relativa allo sfruttamento minorile, ‌Siri‌ fornirà risorse per chiedere quanto prima aiuto.

NovitàAcquista il nuovo iPhone 16 su Amazon
News