Apple ha da poco annunciato le sue intenzioni di scansionare gli iPhone e gli iPad degli utenti in cerca di contenuti pedopornografici al fine proteggere la sicurezza dei bambini. Dopo il forte annuncio le polemiche sono scoppiate in modo istantaneo: molti sono stati gli esperti e le figure importanti del mondo tecnologico che hanno lanciato l’allarme per la privacy derivante proprio dalla possibilità da parte della mela di setacciare gli smartphone degli utenti e guardare le loro foto.
Dopo la grande ondata di polemiche e il malcontento generale Apple non ha potuto fare a meno di fornire la sua risposta ufficiale. Il colosso di Cupertino ha espressamente specificato, tentando di fugare le tante perplessità, che non scansionerà tutte le foto presenti sui suoi dispositivi. Il nuovo sistema si applicherà prima di tutto solo agli utenti che sceglieranno di caricare le proprie foto su iCloud.
Inoltre, Apple verrà a conoscenza solo ed esclusivamente degli account che archiviano immagini CSAM note e solo delle immagini che corrispondono a CSAM noto. Le immagini CSAM, per chi non lo avesse capito, sono quelle foto che presentano contenuto esplicitamente riconducibile alla pedopornografia. La funzionalità non verrà utilizzata sugli utenti di iPhone e iPad che hanno disattivato il caricamento di foto su iCloud.
Sebbene l’analisi verrà effettuata sui dispositivi degli utenti, Apple non scansionerà la libreria fotografica privata dei suoi iPhone e iPad. Gli algoritmi verranno quindi usati solo su iCloud, e quindi sulle immagini caricate online. Le preoccupazioni sulla privacy, però, non possono dirsi placate.