Notebookcheck Logo

Apple citato per non aver implementato il rilevamento CSAM in iCloud

Apple citato per non aver implementato il rilevamento CSAM in iCloud (Fonte immagine: Foto di Tayyab Ejaz su Unsplash)
Apple citato per non aver implementato il rilevamento CSAM in iCloud (Fonte immagine: Foto di Tayyab Ejaz su Unsplash)
Apple sta affrontando una causa in Nord California per non aver trovato un modo per implementare il rilevamento CSAM in iCloud. La causa, intentata da una vittima, sostiene che l'abbandono del programma da parte di Apple non ha impedito che le sue immagini venissero condivise online.

Nel 2021, Apple ha annunciato e poi rapidamente ritirato un controverso sistema iCloud che avrebbe scansionato le foto di iMessage e iCloud alla ricerca di materiale pedopornografico (CSAM).

Il sistema avrebbe permesso a Apple di analizzare le foto nei dispositivi Apple utilizzati dai bambini, ma l'azienda si è trovata nell'occhio del ciclone a causa delle preoccupazioni sulla privacy sollevate da esperti e gruppi di difesa. Apple ha abbandonato il sistema, dicendo che avrebbe "preso ulteriore tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzioni di sicurezza per i bambini di importanza critica"

Negli anni successivi, Apple ha mantenuto il silenzio su qualsiasi funzione riguardante CSAM. Ora (via Engadget), una causa intentata da una vittima, depositata presso il Tribunale distrettuale degli Stati Uniti nel Nord della California, sostiene che la mancata realizzazione di precauzioni di sicurezza da parte di Apple ha fatto sì che le immagini di lei circolassero in modo inappropriato online.

Prima notizia riportata dal New York Times dal New York Times, la 27enne ha detto che lei e sua madre hanno ricevuto continue notifiche di diversi individui accusati di possesso. La causa chiede un risarcimento finanziario per 2680 vittime che hanno visto le loro immagini diffuse online.

Apple il portavoce Fred Sainz ha dichiarato a Engadget che CSAM "è ripugnante e ci impegniamo a combattere i modi in cui i predatori mettono a rischio i bambini" Sainz ha detto che l'azienda sta cercando "urgentemente e attivamente" dei modi "per combattere questi crimini senza compromettere la sicurezza e la privacy di tutti i nostri utenti"

Fonte(i)

EngadgetIl New York Times

Fonte dell'immagine: Foto di Tayyab Ejaz su Unsplash

Please share our article, every link counts!
Mail Logo
> Recensioni e prove di notebook, tablets e smartphones > News > Newsarchive 2024 12 > Apple citato per non aver implementato il rilevamento CSAM in iCloud
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)