Pozew przeciw Apple za brak wykrywania treści CSAM
Apple mierzy się z pozwem związanym z decyzją o porzuceniu systemu, który miał skanować zdjęcia w iCloud w poszukiwaniu materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM). Skarżąca, 27-letnia kobieta występująca pod pseudonimem, twierdzi, że firma nie podejmuje wystarczających działań, by zapobiec rozprzestrzenianiu tych treści, co zmusza ofiary do przeżywania traumy na nowo.
W pozwie wskazano, że Apple pierwotnie ogłosiło plan wdrożenia technologii do wykrywania CSAM w 2021 roku. System miał wykorzystywać cyfrowe sygnatury dostarczane przez Narodowe Centrum Zaginionych i Wykorzystywanych Dzieci (NCMEC) oraz inne organizacje. Jednak Apple zrezygnowało z tego pomysłu po krytyce ze strony ekspertów ds. bezpieczeństwa i prywatności, którzy obawiali się, że rozwiązanie mogłoby stworzyć furtkę dla rządowego nadzoru.
Trauma ofiar i potencjalne odszkodowania
Skarżąca w pozwie przytacza swoją traumatyczną historię. Była molestowana jako niemowlę, a zdjęcia z tych zdarzeń zostały udostępnione w sieci. Do dziś otrzymuje niemal codziennie powiadomienia od organów ścigania o kolejnych osobach oskarżonych o posiadanie tych materiałów. Adwokat James Marsh, zaangażowany w sprawę, zaznaczył, że podobne roszczenia może zgłosić aż 2 680 ofiar.
To już drugi w tym roku pozew dotyczący tego samego tematu. W sierpniu 9-letnia dziewczynka i jej opiekun prawny wnieśli sprawę przeciwko Apple, zarzucając firmie brak skutecznych działań w walce z CSAM na platformie iCloud.
Apple broni prywatności użytkowników
Apple wydało oświadczenie, w którym zapewniło, że „pilnie i aktywnie” pracuje nad rozwiązaniami mającymi na celu zwalczanie przestępstw związanych z CSAM, nie naruszając jednocześnie prywatności użytkowników. Firma pozostaje w trudnej sytuacji, balansując między ochroną dzieci a ochroną prywatności swoich klientów.
Prywatność czy odpowiedzialność?
Debata wokół wykrywania CSAM odzwierciedla większy problem, z jakim mierzy się branża technologiczna – jak skutecznie przeciwdziałać przestępstwom online, jednocześnie chroniąc prawa użytkowników. Czy Apple znajdzie złoty środek, który zadowoli obie strony?