W sierpniu 2021 r. Apple ujawniło swoje plany skanowania iPhone'ów pod kątem obrazów przedstawiających wykorzystywanie seksualne dzieci. Posunięcie to wywołało aplauz grup zajmujących się ochroną dzieci, ale wzbudziło obawy wśród ekspertów ds. prywatności i bezpieczeństwa, że ​​funkcja może być niewłaściwie używana.

Firma Apple początkowo planowała włączyć technologię skanowania materiałów do wykorzystywania seksualnego dzieci (CSAM) w systemie iOS 15; zamiast tego opóźnił na czas nieokreślony wprowadzenie tej funkcji, aby uzyskać informacje zwrotne przed jej pełnym wydaniem.

Dlaczego więc funkcja wykrywania CSAM stała się przedmiotem gorącej debaty i co skłoniło Apple do odroczenia jej wprowadzenia?

Co robi funkcja skanowania zdjęć firmy Apple?

Apple ogłosiło wdrożenie funkcji skanowania zdjęć w nadziei na walkę z wykorzystywaniem seksualnym dzieci. Wszystkie zdjęcia w urządzeniach użytkowników Apple będą skanowane pod kątem treści pedofilskich za pomocą algorytmu „NueralHash” stworzonego przez Apple.

Ponadto wszelkie urządzenia Apple używane przez dzieci miałyby funkcję bezpieczeństwa, która automatycznie się zamazuje zdjęcia dorosłych, jeśli otrzyma je dziecko, a użytkownik zostanie dwukrotnie ostrzeżony, jeśli spróbuje otworzyć im.

Oprócz zminimalizowania kontaktu z treściami dla dorosłych, jeśli rodzice zarejestrują urządzenia należące do ich dzieci dla dodatkowe bezpieczeństwo, rodzice zostaną powiadomieni w przypadku, gdy dziecko otrzyma od kogokolwiek wyraźne treści online.

Czytaj więcej: Co musisz wiedzieć o zabezpieczeniach Apple dla dzieci

Jeśli chodzi o dorosłych, którzy używają Siri do szukania wszystkiego, co seksualizuje dzieci, Siri nie przeprowadzi tego wyszukiwania i zamiast tego zasugeruje inne alternatywy.

Dane z dowolnego urządzenia zawierającego 10 lub więcej zdjęć uznanych przez algorytmy za podejrzane zostaną odszyfrowane i poddane kontroli przez człowieka.

Jeśli te zdjęcia lub jakiekolwiek inne w urządzeniu okażą się pasować do czegokolwiek z bazy danych dostarczonej przez Krajowe Centrum Dzieci Zaginionych i Wykorzystywanych, zostanie to zgłoszone władzom, a konto użytkownika zostanie zawieszone.

Główne obawy dotyczące funkcji skanowania zdjęć

Funkcja wykrywania CSAM zostałaby uruchomiona wraz z premierą iOS 15 we wrześniu 2021 r., ale na pierwszy rzut oka powszechnego oburzenia, Apple postanowiło poświęcić więcej czasu na zebranie opinii i wprowadzenie ulepszeń funkcja. Tutaj jest Pełne oświadczenie Apple w sprawie opóźnienia:

„W zeszłym miesiącu ogłosiliśmy plany dotyczące funkcji, które mają pomóc chronić dzieci przed drapieżnikami, które: korzystać z narzędzi komunikacyjnych, aby ich rekrutować i wykorzystywać oraz ograniczać rozprzestrzenianie się seksualnego wykorzystywania dzieci Materiał.

Na podstawie opinii klientów, grup wsparcia, badaczy i innych osób zdecydowaliśmy się poświęcić dodatkowy czas nadchodzące miesiące na zbieranie danych i wprowadzanie ulepszeń przed uwolnieniem tych krytycznie ważnych dla bezpieczeństwa dzieci cechy".

Prawie połowa obaw związanych z funkcją skanowania zdjęć firmy Apple dotyczy prywatności; reszta argumentów to prawdopodobna niedokładność algorytmów i potencjalne nadużycie systemu lub jego luki.

Podzielmy to na cztery części.

Potencjalne niewłaściwe użycie

Świadomość, że jakikolwiek materiał pasujący do pornografii dziecięcej lub znane obrazy wykorzystywania seksualnego dzieci dostanie urządzenie na listę „podejrzanych”, może wprawić cyberprzestępców w ruch.

Mogą celowo bombardować osobę nieodpowiednimi treściami za pośrednictwem iMessage, WhatsApp lub w jakikolwiek inny sposób i zawiesić konto tej osoby.

Apple zapewnił, że użytkownicy mogą złożyć odwołanie w przypadku zawieszenia konta z powodu nieporozumienia.

Wykorzystywanie informacji poufnych

Ta funkcja, chociaż zaprojektowana w dobroczynnym celu, może przerodzić się w totalną katastrofę dla niektórych osób, jeśli ich urządzenia są rejestrowane w systemie, za ich wiedzą lub bez, przez krewnych zainteresowanych monitorowaniem ich komunikacji.

Nawet jeśli tak się nie stanie, firma Apple stworzyła backdoora, który umożliwia dostęp do danych użytkowników pod koniec dnia. Teraz jest to kwestia motywacji i determinacji, aby ludzie mieli dostęp do danych osobowych innych osób.

Związane z: Co to jest backdoor i do czego służy?

Nie tylko ułatwia poważne naruszenie prywatności, ale także toruje drogę do obraźliwych, toksycznych lub kontrolnych krewnych, opiekunów, przyjaciół, kochanków, opiekunów i byłych, aby dalej najeżdżać czyjąś przestrzeń osobistą lub ograniczać ich wolność.

Z jednej strony ma na celu zwalczanie wykorzystywania seksualnego dzieci; z drugiej strony może służyć do dalszego utrwalania innych rodzajów nadużyć.

Nadzór rządowy

Apple zawsze reklamował się jako marka bardziej dbająca o prywatność niż jej konkurenci. Ale teraz może wkraczać na śliski stok, w którym musi spełniać niekończące się wymagania przejrzystości w dane użytkowników przez rządy.

System, który stworzył do wykrywania treści pedofilskich, może być używany do wykrywania wszelkiego rodzaju treści na telefonach. Oznacza to, że rządy z mentalnością kultową mogą monitorować użytkowników na bardziej osobistym poziomie, jeśli dostaną to w swoje ręce.

Opresyjne czy nie, zaangażowanie rządu w Twoje codzienne i osobiste życie może być denerwujące i stanowi naruszenie Twojej prywatności. Pomysł, że musisz się martwić o takie najazdy tylko wtedy, gdy zrobiłeś coś złego, jest błędnym myśleniem i nie dostrzega wspomnianego wcześniej śliskiego zbocza.

Fałszywe alarmy

Jednym z największych problemów związanych ze stosowaniem algorytmów do dopasowywania zdjęć do bazy danych są fałszywe alarmy. Algorytmy haszujące mogą błędnie identyfikować dwa zdjęcia jako pasujące, nawet jeśli nie są takie same. Błędy te, zwane „kolizjami”, są szczególnie niepokojące w kontekście treści przedstawiających wykorzystywanie seksualne dzieci.

Naukowcy odkryli kilka kolizji w "NeuralHash" po tym, jak Apple ogłosiło, że użyje algorytmu do skanowania obrazów. Apple odpowiadał na pytania dotyczące fałszywych alarmów, wskazując, że wynik zostanie na końcu sprawdzony przez człowieka, więc ludzie nie muszą się tym martwić.

Czy pauza CSAM firmy Apple jest trwała?

Istnieje wiele zalet i wad proponowanej funkcji Apple. Każdy z nich jest autentyczny i trzyma wagę. Nadal nie jest jasne, jakie konkretnie zmiany Apple może wprowadzić w funkcji skanowania CSAM, aby zadowolić swoich krytyków.

Może ograniczyć skanowanie do udostępnionych albumów iCloud zamiast angażować urządzenia użytkowników. Jest bardzo mało prawdopodobne, że Apple całkowicie zrezygnuje z tych planów, ponieważ firma zazwyczaj nie jest skłonna do poddania się swoim planom.

Jednak z powszechnego sprzeciwu i powstrzymywania się Apple od planów jasno wynika, że firmy powinny włączać społeczność naukową od samego początku, szczególnie w przypadku nieprzetestowanych technologia.

UdziałĆwierkaćE-mail
Bezpieczeństwo w Internecie: ponad 50 wskazówek, jak zapewnić dzieciom bezpieczeństwo w Internecie

Dzieci są głównym celem internetowych drapieżników i cyberprzestępców. Te przydatne wskazówki mogą nauczyć rodziców, jak zapewnić im bezpieczeństwo w Internecie.

Czytaj dalej

Powiązane tematy
  • Bezpieczeństwo
  • iPhone
  • Prywatność smartfona
  • jabłko
  • Prywatność w Internecie
  • Nadzór
O autorze
Fawad Ali (19 opublikowanych artykułów)

Fawad jest inżynierem IT i komunikacji, aspirującym przedsiębiorcą i pisarzem. Na arenę content writing wszedł w 2017 roku i od tego czasu współpracował z dwiema agencjami marketingu cyfrowego oraz licznymi klientami B2B i B2C. Pisze o bezpieczeństwie i technologii w MUO, aby edukować, bawić i angażować publiczność.

Więcej od Fawada Ali

Zapisz się do naszego newslettera

Dołącz do naszego newslettera, aby otrzymywać porady techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!

Kliknij tutaj, aby zasubskrybować