Apple susidurė su ieškiniu Šiaurės Kalifornijoje, JAV dėl to, kad neįdiegė vaikų seksualinio išnaudojimo medžiagos (CSAM) aptikimo sistemos iCloud platformoje. Ieškinį pateikė nukentėjusioji, teigianti, jog dėl šio Apple sprendimo jos nuotraukos buvo platinamos internete.
2021 metais Apple pristatė (CSAM) sistemą, o vėliau greitai atsiėmė prieštaringai vertinamą iCloud sistemą. Sistema būtų leidusi Apple analizuoti vaikų naudojamų Apple įrenginių nuotraukas, tačiau bendrovė sulaukė kritikos dėl privatumo problemų, kurias iškėlė ekspertai ir žmogaus teisių gynimo grupės. Apple atsisakė sistemos, teigdama, kad jai reikia daugiau laiko surinkti atsiliepimus ir atlikti patobulinimus.
Nuo to laiko Apple nekomentavo jokių su CSAM aptikimu susijusių funkcijų. „The New York Times” pranešė, kad 27 metų moteris pateikė ieškinį JAV apygardos teisme Šiaurės Kalifornijoje, teigdama, jog dėl Apple neveiksnumo kuriant saugos priemones jos nuotraukos buvo neteisėtai platinamos internete. Ieškinyje reikalaujama finansinės kompensacijos 2680 nukentėjusiųjų, kurių nuotraukos buvo nutekintos.
Apple atstovas spaudai Fredas Sainzas teigė, kad tai yra „pasibjaurėtina” ir kad bendrovė ieško būdų kovoti su vaikų išnaudojimu nepažeidžiant vartotojų privatumo.
Ši byla kelia svarbius klausimus apie technologijų bendrovių atsakomybę užtikrinant vaikų saugumą internete ir tuo pačiu metu išsaugant vartotojų privatumą. Apple atsidūrė sudėtingoje padėtyje, bandydama subalansuoti šiuos du svarbius aspektus. Bylos baigtis gali turėti didelės įtakos tam, kaip technologijų įmonės ateityje spręs CSAM problemą.
Šaltinis: kursors.lv
Parašyti komentarą