Il capo del software Apple Craig Federighi ha dichiarato al Wall Street Journal che il nuovo programma del gigante tecnologico Apple per verificare se gli utenti hanno immagini di abusi sui minori sui loro telefoni è “generalmente frainteso”. Secondo Federighi, i sistemi di Apple non sono meno sicuri o riservati quando si utilizza il tanto discusso software.
Apple ha annunciato un nuovo programma in anticipo questo mese Per iPhone e iPad, al momento solo negli USA.
tante critiche
Ci sono state subito molte critiche sulla sensibilità alla privacy del nuovo software. Migliaia di persone hanno già firmato una petizione per convincere Apple a non utilizzare il software. Gli esperti hanno avvertito che il software potrebbe essere utilizzato in modo improprio per altri scopi, il che potrebbe aprire la porta allo spionaggio di massa e agli hacker. Anche il manager di WhatsApp Will Cathcart Si annovera tra i critici. Ha descritto il sistema come una “battuta sulla privacy” e ha parlato di un “approccio sbagliato”.
“Volevamo essere in grado di rilevare le immagini nel cloud in questo modo senza guardare le immagini degli utenti”, ha detto ora Federighi al Wall Street Journal. Aggiunge che Apple ha voluto aggiungere questa funzionalità in modo sicuro che non è ancora stata utilizzata.
Venerdì, in una dichiarazione rilasciata al software, Apple ha confermato che l’azienda garantirà che il software non venga manomesso per altri scopi. A tal fine, Apple collabora con organizzazioni “affidabili” in più paesi per determinare a quali immagini prestare attenzione. Apple ha anche notato che ha sempre rifiutato quando i governi hanno chiesto all’azienda di creare determinate funzioni che potrebbero danneggiare la privacy degli utenti. Ha detto che la società continuerà a negarlo.
Avvertimento
Il programma suona l’allarme se pensa di aver incontrato immagini illegali. Quindi una squadra di investigatori umani decide se chiamare la polizia.
Il software è in grado di identificare materiale offensivo nel sistema di backup di iCloud, ma utilizza anche l’intelligenza artificiale per avvisare i bambini e i loro genitori quando ricevono o inviano immagini sessualmente esplicite tramite l’app di messaggistica di Apple, Messaggi. Queste immagini possono quindi essere sfocate e i genitori ricevono un avviso se tali contenuti vengono inviati o visualizzati.
Apple ha affermato che il software abbinerà le immagini con le immagini di abusi sui minori da un database Centro nazionale per i bambini scomparsi e sfruttati negli Stati Uniti. Il sistema avrà un margine di errore inferiore a “1 per 1 trilione”. La società afferma che riceverà informazioni sulle foto degli utenti solo se hanno una serie di materiali di abuso noti nel proprio account iCloud.
Accesso gratuito illimitato a Showbytes? E questo può!
Accedi o crea un account e non perdere mai nessuna delle stelle.
“Specialista televisivo. Amichevole fanatico del web. Studioso di cibo. Drogato estremo di caffè.”