Nuova Discussione
Rispondi
 
Pagina precedente | 1 | Pagina successiva

"Apple scansionerà tutti gli iPhone negli Usa per scovare foto pedopornografiche"

Ultimo Aggiornamento: 10/08/2021 15:52
Autore
Stampa | Notifica email    
06/08/2021 16:44
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore

"L’aggiornamento entro il 2021 a partire dagli Usa. Le immagini saranno controllate nel device, prima di essere caricate su iCloud, dalla tecnologia neuralMatch; se scatta l’allarme saranno verificare da un team di esseri umani. I dubbi degli esperti
Apple ha annunciato una serie di contromisure elettroniche che puntano a contrastare pedofili e predatori di minori e che saranno integrate negli aggiornamenti software degli iPhone, degli iPad, dei Watch e dei computer Mac.

Entro la fine dell'anno - e almeno per ora solo negli Stati Uniti - iOS 15, iPadOS 15, watchOS 8 e macOS Monterey accoglieranno diverse funzionalità volte a migliorare la sicurezza dei bambini.

Queste funzionalità hanno sollevato i dubbi di molti esperti di sicurezza, che mettono in luce come queste novità potrebbero, di fatto, aprire la porta alla sorveglianza dei cellulari di milioni di persone.

occhio elettronico per scovare immagini di abusi
Apple e diversi esperti di sicurezza hanno collaborato con l’intento di limitare la «diffusione di materiale relativo ad abusi sessuali su minori» (in inglese CSAM), ovvero «contenuti riguardanti attività sessualmente esplicite che coinvolgono un bambino». Secondo l'associazione Thorn «sebbene sia un problema globale, gli Stati Uniti rimangono uno dei maggiori produttori e consumatori di contenuti pedopornografici al mondo».

Apple ha quindi sviluppato una tecnologia che consentirà di rilevare le immagini illegali. Si chiama neuralMatch e verrà installata su tutti i dispositivi Apple (negli Usa) attraverso un aggiornamento. Il suo compito sarà quello di controllare ogni immagine che proviene dal dispositivo prima che questa sia caricata su Apple iCloud, l’archivio online per poter depositare i propri file. Il file non verrà immediatamente decriptato da Apple, ma spiegheremo più avanti i dettagli dell’operazione. Una volta identificata l’immagine, interverrà un team di esseri umani per una revisione. Se la presenza di contenuti pedopornografici venisse confermata, l’account dell’utente sarà disabilitato. Tutte le violazioni verranno poi notificate al National Center for Missing and Exploited Children (NCMEC), che per altro collabora con la Polizia.

Archivi di foto già note?
Il mercato della pornografia online, come spiegano gli esperti, è basato su materiale nuovo e d'archivio. Quando gli agenti attuano un sequestro, arresti o altre operazioni archiviano e codificano foto e video rinvenuti. Questi database sono di aiuto ad altre indagini, anche di bambini scomparsi. Apple, come altre non-profit statunitensi per la difesa dei bambini, vuole impiegare questo materiale (riservato) già rinvenuto per effettuare riscontri. Anche perché spesso lo stesso materiale fotografico viene ri-editato digitalmente per rinnovare il suo valore economico sul mercato.

Il nodo privacy (forse) risolto tecnologicamente
L'intento di Apple rischia qualche attrito con il diritto alla privacy. Apple ha cercato di risolvere il problema: il sistema «invece di scansionare le immagini nel cloud, esegue la corrispondenza sul dispositivo utilizzando un database di hash di immagini CSAM noti forniti dal National Center for Missing and Exploited Children e altre organizzazioni per la sicurezza dei bambini». Cosa significa? In pratica ogni foto presente su un iPhone verrà cifrata e se questa codifica alfanumerica avrà una corrispondenza con quelle di abusi si creerà una sorta di voucher di sicurezza crittografico al cui interno sarà presente il responso. Da sottolineare che la piattaforma dovrebbe essere in grado di scovare anche le versioni ri-editate. Quando la foto dell'iPhone verrà caricata sull'archivio iCloud verrà abbinata al suo eventuale voucher, che però Apple stessa non potrà aprire. Superata una specifica soglia numerica di voucher, Apple passerà a esaminare «manualmente ogni rapporto per confermare che esiste una corrispondenza, disabiliterà l'account dell'utente e invierà un rapporto a NCMEC». I tecnici dell'azienda di Cupertino sostengono di poter garantire un margine di errore inferiore a mille miliardi (1 trillion) di possibilità all'anno. Ovviamente se un utente riterrà il proprio account segnalato per errore avrà la possibilità di ricorso per il ripristino.

I dubbi degli esperti
Sebbene l'iniziativa sia stata solo annunciata, alcuni esperti hanno già espresso perplessità. «Indipendentemente da quali siano i piani a lungo termine di Apple, hanno inviato un segnale molto chiaro. Secondo la loro opinione (molto influente), è una cosa sicura costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti», ha dichiarato Matthew Green, un ricercatore di sicurezza presso Johns Hopkins University. «Che si riveli giusto o sbagliato su questo punto, non importa. Farà breccia nella diga: i governi lo domanderanno per tutti». Il timore è che questo software potrebbe essere in futuro utilizzato per la sorveglianza di dissidenti in alcuni parti del mondo, come la Cina. «Cosa succederebbe se il governo cinese chiedesse a Apple “Ecco una lista di file da scansionare..” Apple dirà di no? Spero dica di no, ma la loro tecnologia potrebbe dare una risposta diversa». Un’altra questione riguarda la possibilità di «fregare» il sistema e anzi, sfruttarlo per incastrare persone innocenti, piazzando sul loro iPhone foto di abusi su minori.

Le altre funzionalità per la protezione dei minori
L'applicazione Messaggi dei dispositivi Apple integrerà nuovi strumenti per avvisare i bambini, e i loro genitori, quando riceveranno o invieranno foto sessualmente esplicite. Inoltre le foto ricevute verranno immediatamente sfocate e abbinate a risorse informative. Come ulteriore precauzione, al bambino «potrà anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se visualizzano» la foto. Lo stesso avverrà nel caso sia il bimbo a spedire una foto sessualmente esplicita: verrà avvisato prima dell'invio e i genitori potranno ricevere un messaggio nel caso proceda. Apple ha confermato l'impiego dell'apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita. «La funzione è progettata in modo che Apple non abbia accesso ai messaggi», ha assicurato l'azienda. Questa funzione arriverà in un aggiornamento entro la fine dell'anno per gli account configurati come famiglie in iCloud per iOS 15, iPadOS 15 e macOS Monterey.
Infine, La Guida dell'interfaccia vocale Siri e la Ricerca disporranno di nuove risorse informative per «aiutare bambini e genitori a rimanere al sicuro online e ottenere aiuto». Ad esempio, gli utenti che chiederanno a Siri come possono segnalare materiale pedopornografico o sfruttamento minorile verranno indirizzati a risorse su dove e come presentare una segnalazione. Anche questi aggiornamenti arriveranno entro la fine dell'anno su iOS 15, iPadOS 15, watchOS 8 e macOS Monterey."


www.corriere.it/tecnologia/21_agosto_06/apple-scansionera-tutti-iphone-usa-scovare-foto-pedopornografiche-a4b1598c-f68f-11eb-a5f5-12ec0bccb5...
06/08/2021 16:46
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore
sembra una buona notizia...
però penso a quei paesi totalitari che potrebbero usare questa tecnologia contro minoranze già vessate in altro modo...
penso alla Russia contro i nostri fratelli per esempio....
06/08/2021 16:59
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 32.351
TdG
Re:
Giandujotta.50, 06.08.2021 16:46:

sembra una buona notizia...
però penso a quei paesi totalitari che potrebbero usare questa tecnologia contro minoranze già vessate in altro modo...
penso alla Russia contro i nostri fratelli per esempio....




Si,infatti potrebbero anche mettere materiale proibito sui loro iPhone per poterli ancora di piu' perseguitare,come hanno fatto con materiale messo nelle Sale del Regno.


Un’altra questione riguarda la possibilità di «fregare» il sistema e anzi, sfruttarlo per incastrare persone innocenti, piazzando sul loro iPhone foto di abusi su minori.




06/08/2021 19:45
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 50.051
Città: PINEROLO
Età: 53
TdG
Re:
Giandujotta.50, 8/6/2021 4:46 PM:

sembra una buona notizia...
però penso a quei paesi totalitari che potrebbero usare questa tecnologia contro minoranze già vessate in altro modo...
penso alla Russia contro i nostri fratelli per esempio....



Ottima notizia, finalmente controlleranno quelle piaghe degli iPhone! [SM=x1408430]

Simon
06/08/2021 19:52
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore
Re: Re:
(SimonLeBon), 06/08/2021 19:45:



Ottima notizia, finalmente controlleranno quelle piaghe degli iPhone! [SM=x1408430]

Simon




[SM=g1871110]
06/08/2021 19:59
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 43
Età: 68
Giandujotta.50, 06/08/2021 16:44:


"L’aggiornamento entro il 2021 a partire dagli Usa. Le immagini saranno controllate nel device, prima di essere caricate su iCloud, dalla tecnologia neuralMatch; se scatta l’allarme saranno verificare da un team di esseri umani. I dubbi degli esperti
Apple ha annunciato una serie di contromisure elettroniche che puntano a contrastare pedofili e predatori di minori e che saranno integrate negli aggiornamenti software degli iPhone, degli iPad, dei Watch e dei computer Mac.

Entro la fine dell'anno - e almeno per ora solo negli Stati Uniti - iOS 15, iPadOS 15, watchOS 8 e macOS Monterey accoglieranno diverse funzionalità volte a migliorare la sicurezza dei bambini.

Queste funzionalità hanno sollevato i dubbi di molti esperti di sicurezza, che mettono in luce come queste novità potrebbero, di fatto, aprire la porta alla sorveglianza dei cellulari di milioni di persone.

occhio elettronico per scovare immagini di abusi
Apple e diversi esperti di sicurezza hanno collaborato con l’intento di limitare la «diffusione di materiale relativo ad abusi sessuali su minori» (in inglese CSAM), ovvero «contenuti riguardanti attività sessualmente esplicite che coinvolgono un bambino». Secondo l'associazione Thorn «sebbene sia un problema globale, gli Stati Uniti rimangono uno dei maggiori produttori e consumatori di contenuti pedopornografici al mondo».

Apple ha quindi sviluppato una tecnologia che consentirà di rilevare le immagini illegali. Si chiama neuralMatch e verrà installata su tutti i dispositivi Apple (negli Usa) attraverso un aggiornamento. Il suo compito sarà quello di controllare ogni immagine che proviene dal dispositivo prima che questa sia caricata su Apple iCloud, l’archivio online per poter depositare i propri file. Il file non verrà immediatamente decriptato da Apple, ma spiegheremo più avanti i dettagli dell’operazione. Una volta identificata l’immagine, interverrà un team di esseri umani per una revisione. Se la presenza di contenuti pedopornografici venisse confermata, l’account dell’utente sarà disabilitato. Tutte le violazioni verranno poi notificate al National Center for Missing and Exploited Children (NCMEC), che per altro collabora con la Polizia.

Archivi di foto già note?
Il mercato della pornografia online, come spiegano gli esperti, è basato su materiale nuovo e d'archivio. Quando gli agenti attuano un sequestro, arresti o altre operazioni archiviano e codificano foto e video rinvenuti. Questi database sono di aiuto ad altre indagini, anche di bambini scomparsi. Apple, come altre non-profit statunitensi per la difesa dei bambini, vuole impiegare questo materiale (riservato) già rinvenuto per effettuare riscontri. Anche perché spesso lo stesso materiale fotografico viene ri-editato digitalmente per rinnovare il suo valore economico sul mercato.

Il nodo privacy (forse) risolto tecnologicamente
L'intento di Apple rischia qualche attrito con il diritto alla privacy. Apple ha cercato di risolvere il problema: il sistema «invece di scansionare le immagini nel cloud, esegue la corrispondenza sul dispositivo utilizzando un database di hash di immagini CSAM noti forniti dal National Center for Missing and Exploited Children e altre organizzazioni per la sicurezza dei bambini». Cosa significa? In pratica ogni foto presente su un iPhone verrà cifrata e se questa codifica alfanumerica avrà una corrispondenza con quelle di abusi si creerà una sorta di voucher di sicurezza crittografico al cui interno sarà presente il responso. Da sottolineare che la piattaforma dovrebbe essere in grado di scovare anche le versioni ri-editate. Quando la foto dell'iPhone verrà caricata sull'archivio iCloud verrà abbinata al suo eventuale voucher, che però Apple stessa non potrà aprire. Superata una specifica soglia numerica di voucher, Apple passerà a esaminare «manualmente ogni rapporto per confermare che esiste una corrispondenza, disabiliterà l'account dell'utente e invierà un rapporto a NCMEC». I tecnici dell'azienda di Cupertino sostengono di poter garantire un margine di errore inferiore a mille miliardi (1 trillion) di possibilità all'anno. Ovviamente se un utente riterrà il proprio account segnalato per errore avrà la possibilità di ricorso per il ripristino.

I dubbi degli esperti
Sebbene l'iniziativa sia stata solo annunciata, alcuni esperti hanno già espresso perplessità. «Indipendentemente da quali siano i piani a lungo termine di Apple, hanno inviato un segnale molto chiaro. Secondo la loro opinione (molto influente), è una cosa sicura costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti», ha dichiarato Matthew Green, un ricercatore di sicurezza presso Johns Hopkins University. «Che si riveli giusto o sbagliato su questo punto, non importa. Farà breccia nella diga: i governi lo domanderanno per tutti». Il timore è che questo software potrebbe essere in futuro utilizzato per la sorveglianza di dissidenti in alcuni parti del mondo, come la Cina. «Cosa succederebbe se il governo cinese chiedesse a Apple “Ecco una lista di file da scansionare..” Apple dirà di no? Spero dica di no, ma la loro tecnologia potrebbe dare una risposta diversa». Un’altra questione riguarda la possibilità di «fregare» il sistema e anzi, sfruttarlo per incastrare persone innocenti, piazzando sul loro iPhone foto di abusi su minori.

Le altre funzionalità per la protezione dei minori
L'applicazione Messaggi dei dispositivi Apple integrerà nuovi strumenti per avvisare i bambini, e i loro genitori, quando riceveranno o invieranno foto sessualmente esplicite. Inoltre le foto ricevute verranno immediatamente sfocate e abbinate a risorse informative. Come ulteriore precauzione, al bambino «potrà anche essere detto che, per assicurarsi che sia al sicuro, i suoi genitori riceveranno un messaggio se visualizzano» la foto. Lo stesso avverrà nel caso sia il bimbo a spedire una foto sessualmente esplicita: verrà avvisato prima dell'invio e i genitori potranno ricevere un messaggio nel caso proceda. Apple ha confermato l'impiego dell'apprendimento automatico sul dispositivo per analizzare gli allegati di immagini e determinare se una foto è sessualmente esplicita. «La funzione è progettata in modo che Apple non abbia accesso ai messaggi», ha assicurato l'azienda. Questa funzione arriverà in un aggiornamento entro la fine dell'anno per gli account configurati come famiglie in iCloud per iOS 15, iPadOS 15 e macOS Monterey.
Infine, La Guida dell'interfaccia vocale Siri e la Ricerca disporranno di nuove risorse informative per «aiutare bambini e genitori a rimanere al sicuro online e ottenere aiuto». Ad esempio, gli utenti che chiederanno a Siri come possono segnalare materiale pedopornografico o sfruttamento minorile verranno indirizzati a risorse su dove e come presentare una segnalazione. Anche questi aggiornamenti arriveranno entro la fine dell'anno su iOS 15, iPadOS 15, watchOS 8 e macOS Monterey."


www.corriere.it/tecnologia/21_agosto_06/apple-scansionera-tutti-iphone-usa-scovare-foto-pedopornografiche-a4b1598c-f68f-11eb-a5f5-12ec0bccb5...

Quando il diavolo ti accarezza vuole la tua anima.
Quante volte abbiamo sentito,lo facciamo per il tuo bene.Invece era esattamente il contrario.Pure i mafiosi assassini fanno opere buone.
06/08/2021 21:19
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 32.351
TdG
Re: Re:
(SimonLeBon), 06.08.2021 19:45:



Ottima notizia, finalmente controlleranno quelle piaghe degli iPhone! [SM=x1408430]

Simon




1+ [SM=g1871110] 1=2 [SM=g1871110]
[Modificato da Amalia 52 06/08/2021 21:21]
07/08/2021 07:54
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 50.051
Città: PINEROLO
Età: 53
TdG
Re:
Amalia 52, 8/6/2021 9:19 PM:



1+ [SM=g1871110] 1=2 [SM=g1871110]



Dai, sii contenta: a furia di scansionare, vedrai che troveranno finalmente il verme dentro la mela! [SM=x1408430]


Simon
07/08/2021 08:03
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore
lo fanno negli Usa perchè gli iPhone sono nati lì e il governo può fare pressioni in tal senso...
ma davvero pensiamo che la Samsung o Huawei non abbiano possibilità simili e i loro governi non le usino?
08/08/2021 07:46
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore
10/08/2021 09:12
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 4.052
TdG
Re: Re:
(SimonLeBon), 07/08/2021 07:54:



Dai, sii contenta: a furia di scansionare, vedrai che troveranno finalmente il verme dentro la mela! [SM=x1408430]


Simon

Quando imparerai ad usare un iphone... ti rimangerai quello che hai detto, vermetto incluso 😅
[Modificato da Staff TdG-3 10/08/2021 11:14]
10/08/2021 09:18
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 42.266
Moderatore
Re: Re: Re:
M71, 10/08/2021 09:12:

Quando imparerai ad usare un iphone... ti rimangersi quello che hai detto, vermetto incluso 😅




[SM=g8920] ..... [SM=g1876480]
10/08/2021 15:52
 
Email
 
Scheda Utente
 
Quota
OFFLINE
Post: 32.351
TdG
Pagina precedente | 1 | Pagina successiva
Nuova Discussione
Rispondi
Cerca nel forum
Tag discussione
Discussioni Simili   [vedi tutte]

Feed | Forum | Album | Utenti | Cerca | Login | Registrati | Amministra
Crea forum gratis, gestisci la tua comunità! Iscriviti a FreeForumZone
FreeForumZone [v.6.1] - Leggendo la pagina si accettano regolamento e privacy
Tutti gli orari sono GMT+01:00. Adesso sono le 04:32. Versione: Stampabile | Mobile
Copyright © 2000-2024 FFZ srl - www.freeforumzone.com