Apple wordt geconfronteerd met een rechtszaak tegen slachtoffers van seksueel misbruik van kinderen omdat ze nalaten een systeem te implementeren dat gericht is op het detecteren van materiaal van seksueel misbruik van kinderen (CSAM) op iCloud. De New York Times. De rechtszaak, aangespannen in Noord-Californië, eist ruim $1,2 miljard aan schadevergoeding voor ongeveer 2.680 personen. De aanklacht betreft de nalatigheid van Apple bij het beschermen van gebruikersgegevens, vooral nadat het bedrijf aanvankelijk een voorstel had ingediend CSAM detectietool in 2021.
Achtergrondinformatie over de CSAM-tool van Apple en de daaropvolgende stopzetting ervan
In 2021 kondigde Apple plannen aan voor een CSAM-detectietool die iCloud zou scannen op beledigende afbeeldingen en het National Center for Missing and Exploited Children zou waarschuwen. Dit initiatief had tot doel de veiligheid van kinderen te verbeteren en uitbuiting effectief te bestrijden. Het bedrijf trok het project echter terug na hevige reacties over mogelijke privacyschendingen. Critici uitten hun bezorgdheid dat de technologie inbreuk zou kunnen maken op de privacyrechten van gebruikers, wat zou kunnen leiden tot het verlaten ervan. Als gevolg hiervan beweren de slachtoffers dat Apple er niet in is geslaagd de noodzakelijke maatregelen te nemen om de verspreiding van schadelijke beelden te voorkomen.
De rechtszaak beschrijft het leed dat de slachtoffers hebben ervaren, waaronder een 27-jarige vrouw die nog steeds meldingen van wetshandhavers ontvangt over het delen van haar beelden uit haar kindertijd. De circulerende beelden verergeren het emotionele lijden van de betrokkenen. De aanklagers beweren dat het onvermogen van Apple om de door haar zelf voorgestelde veiligheidsmaatregelen te implementeren ervoor zorgde dat dergelijke materialen ongecontroleerd op het platform konden blijven staan.
De reactie van Apple en bestaande maatregelen
In reactie op de rechtszaak benadrukte Apple zijn inzet voor de bescherming van kinderen met behoud van de privacy van gebruikers. Woordvoerder Fred Sainz verklaarde: “Materiaal over seksueel misbruik van kinderen is weerzinwekkend en we willen ons inzetten voor de strijd tegen de manieren waarop roofdieren kinderen in gevaar brengen.” Hij wees op bestaande veiligheidsfuncties, zoals communicatieveiligheid, die gebruikers waarschuwt wanneer ze expliciete inhoud verzenden of ontvangen. Ondanks deze voortdurende inspanningen wordt het bedrijf steeds meer onder de loep genomen met betrekking tot de effectiviteit van de aanpak van CSAM-uitdagingen.
Eerder dit jaar kreeg Apple ook kritiek van de Britse National Society for the Prevention of Cruelty to Children (NSPCC), die het bedrijf ervan beschuldigde te weinig gevallen van seksueel misbruik op zijn platforms te melden. Deze escalerende druk benadrukt de aanhoudende zorgen over de strategieën van Apple bij het bestrijden van kinderuitbuiting en het garanderen van de gebruikersveiligheid op zijn diensten.
Uitgelichte afbeeldingscredits: Tim Mossholder/Unsplash
Het bericht dat Apple voor 1,2 miljard dollar heeft aangeklaagd wegens mislukte CSAM-detectie verscheen voor het eerst op TechBriefly.
Source: Apple klaagde 1,2 miljard dollar aan wegens mislukte CSAM-detectie


