Czytelnicy tacy jak ty pomagają wspierać MUO. Kiedy dokonujesz zakupu za pomocą linków na naszej stronie, możemy otrzymać prowizję partnerską. Czytaj więcej.

Firma Apple ogłosiła plany przeskanowania zawartości usługi iCloud pod kątem materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM) w sierpniu 2021 r., aby chronić dzieci przed wykorzystywaniem przez drapieżników.

Firma planowała uruchomić nową funkcję wykrywania CSAM w Zdjęciach iCloud, która skanowałaby takie treści i zgłaszała pasujące obrazy do Apple przy jednoczesnym zachowaniu prywatności użytkowników.

Jednak nowa funkcja spotkała się z mieszanymi reakcjami. Ponad rok od pierwszego ogłoszenia Apple oficjalnie rezygnuje z planu skanowania zdjęć iCloud w poszukiwaniu CSAM.

Apple rezygnuje z planu skanowania iCloud w poszukiwaniu materiałów przedstawiających wykorzystywanie dzieci

Według raportu o PRZEWODOWY, Apple rezygnuje z planu skanowania Twojego iCloud w poszukiwaniu treści związanych z wykorzystywaniem dzieci. Narzędzie skanuje zdjęcia przechowywane na iCloud, aby znaleźć te, które pasują do znanych obrazów CSAM zidentyfikowanych przez organizacje zajmujące się bezpieczeństwem dzieci. Może następnie zgłosić te obrazy, ponieważ posiadanie obrazów CSAM jest nielegalne w większości jurysdykcji, w tym w USA.

instagram viewer

Dlaczego Apple anulowało swój plan skanowania zdjęć iCloud

Po pierwszym ogłoszeniu w 2021 r. Apple spotkał się z reakcją klientów, grup i osób opowiadających się za cyfrową prywatnością i bezpieczeństwem na całym świecie. iPhone'y zazwyczaj zapewniają większe bezpieczeństwo niż urządzenia z Androidem, a wielu postrzegało to jako krok wstecz. Chociaż było to zwycięstwo dla organizacji zajmujących się bezpieczeństwem dzieci, ponad 90 grup politycznych napisało list otwarty do Apple jeszcze w tym samym miesiącu, nakazując firmie anulowanie planu.

W liście argumentowano, że podczas gdy narzędzie zamierza chronić dzieci przed nadużyciami, może zostać wykorzystany do cenzurowania wolności słowa i zagrażania prywatności i bezpieczeństwu użytkowników. Ze względu na rosnącą presję Apple wstrzymał plany wprowadzenia na rynek, aby zebrać opinie i wprowadzić niezbędne zmiany w tej funkcji. Jednak opinie nie sprzyjały planowi Apple dotyczącemu skanowania zdjęć iCloud, więc firma oficjalnie rezygnuje z planów na dobre.

W oświadczeniu dla WIRED firma powiedziała:

"Mamy... zdecydowaliśmy się nie iść naprzód z naszym wcześniej proponowanym narzędziem do wykrywania CSAM dla Zdjęć iCloud. Dzieci mogą być chronione bez przeszukiwania danych osobowych przez firmy i będziemy nadal współpracować z rządami, rzecznikami praw dziecka i innym firmom, aby pomóc chronić młodych ludzi, zachować ich prawo do prywatności i uczynić Internet bezpieczniejszym miejscem dla dzieci i dla nas Wszystko."

Nowy plan Apple dotyczący ochrony dzieci

Apple przekierowuje swoje wysiłki w celu ulepszenia funkcji bezpieczeństwa komunikacji ogłoszonych w sierpniu 2021 r. i wprowadzonych na rynek w grudniu tego samego roku.

Bezpieczeństwo komunikacji jest opcjonalne i może być używane przez rodziców i opiekunów w celu ochrony dzieci zarówno przed wysyłaniem, jak i otrzymywaniem obrazów o charakterze jednoznacznie seksualnym w iMessage. Funkcja automatycznie rozmywa takie zdjęcia, a dziecko zostanie ostrzeżone o związanych z tym niebezpieczeństwach. Ostrzega również każdego, kto spróbuje wyszukać CSAM na urządzeniach Apple.

Ponieważ plany uruchomienia narzędzia do wykrywania CSAM zostały anulowane, firma nie może się doczekać dalszego ulepszania tej funkcji i rozszerzenia jej na więcej aplikacji komunikacyjnych.