Sztuczna inteligencja (AI) jest równie kontrowersyjna, co imponująca. Może ułatwić wiele aspektów pracy i życia codziennego, ale także rodzi pewne pytania etyczne. W szczególności stosowanie sztucznej inteligencji przez rząd USA powoduje, że niektórzy ludzie czują się nieswojo.

Obecnie w użyciu lub opracowywanych jest wiele rządowych projektów sztucznej inteligencji, a niektóre z nich przyniosły wiele dobrego. Jednocześnie budzą wiele obaw o prywatność sztucznej inteligencji. Oto bliższe spojrzenie na te projekty i ich znaczenie dla prywatności publicznej.

Przykłady rządowych projektów AI i automatyzacji

Najbardziej podstawowe przykłady sztucznej inteligencji wykorzystywane przez rząd USA obejmują automatyzację rutynowej pracy biurowej. W 2019 roku Seattle używało Zrobotyzowana automatyzacja procesów (RPA) dbać o wprowadzanie danych i przetwarzanie wniosków. Od tego czasu miasto przeszło przez ponad 6000 zaległych aplikacji i zaoszczędziło setki godzin pracy.

Inne rządowe projekty AI są bardziej przyciągające wzrok. Straż Pożarna Nowego Jorku testuje psy-roboty z

instagram viewer
Boston Dynamics do pomiaru uszkodzeń konstrukcji i toksycznych oparów przed wejściem strażaków. Przed projektem robota przeciwpożarowego Departament Policji Nowego Jorku planował wdrożyć te same roboty.

Komendy policji i inne agencje rządowe w całym kraju rozważają użycie podobnych technologii. Jednak wraz z startem tych rządowych projektów AI ich potencjalne niedociągnięcia w zakresie prywatności stały się bardziej wyraźne.

Czy sztuczna inteligencja stanowi zagrożenie dla prywatności i bezpieczeństwa?

To, czy zobaczysz roboty policyjne w przyszłości, jest nadal niepewne, ale wydaje się, że sprawy zmierzają w tym kierunku. Projekty te mają wiele zalet, ale obawy dotyczące prywatności związanej ze sztuczną inteligencją stają się poważniejsze w kontaktach z rządem. Oto niektóre z największych problemów związanych z tymi technologiami.

Sztuczna inteligencja polega na gromadzeniu i analizowaniu danych. W rezultacie więcej rządowych projektów AI oznacza, że ​​agencje te będą gromadzić i przechowywać dodatkowe informacje o swoich obywatelach. Niektórzy ludzie mają ochotę zebrać wszystkie te informacje narusza ich prywatność i narusza ich prawa.

Technologie takie jak projekt psa strażackiego są szczególnie niepokojące, ponieważ mogą sprawić, że nadzór rządowy stanie się mylący. Agencje twierdzą, że robot jest po to, by sprawdzać kwestie bezpieczeństwa, ale ludzie nie mogą powiedzieć, jakie dane zbiera. Może mieć kamery i czujniki, które skanują ich twarze lub śledzą ich telefony komórkowe bez ich wiedzy.

Niektórzy obawiają się, że „fajny czynnik” robotów ukryje ich potencjał inwigilacyjny. Roboty policyjne w przyszłości mogą szpiegować obywateli bez wzbudzania większych podejrzeń, ponieważ ludzie po prostu widzą nowe technologie zamiast naruszać ich prywatność.

Niejasne obowiązki

Te projekty związane ze sztuczną inteligencją i automatyzacją podnoszą również kwestię odpowiedzialności. Jeśli robot popełni błąd, który wyrządzi krzywdę, kto jest za to odpowiedzialny? Kiedy pracownik rządowy przekracza swoje granice i narusza czyjeś prawa, sądy mogą pociągnąć go do odpowiedzialności, ale co z robotem?

Widać ten problem w samochodach autonomicznych. W niektórych przypadkach awarii autopilota ludzie obciążają producenta roszczeniami z tytułu odpowiedzialności za produkt, podczas gdy inni obwiniają kierowcę. W jednym przypadku Krajowa Rada Bezpieczeństwa Transportu nałożył odpowiedzialność zarówno na producenta, jak i na kierowcę, ale ostatecznie decyzja musi być podejmowana indywidualnie dla każdego przypadku. W ten sam sposób roboty policyjne zabłocają wodę. Jeśli naruszają twoją prywatność, nie jest jasne, czy winić producenta, policję czy ludzkich przełożonych.

To zamieszanie może spowolnić i skomplikować postępowanie sądowe. Może minąć trochę czasu, zanim ofiary naruszeń prywatności lub naruszeń ich praw otrzymają sprawiedliwość, na jaką zasługują. Nowe przepisy i precedensy prawne mogą wyjaśnić sprawę i rozwiązać ten problem, ale w tej chwili jest to niepewne.

Ryzyko naruszenia danych

Sztuczna inteligencja wykorzystywana przez rząd USA może również zwiększyć obawy o prywatność AI, które obserwujesz w sektorze prywatnym. Zbieranie niektórych danych może być całkowicie legalne, ale im więcej organizacji gromadzi, tym większe jest ryzyko. Firma lub rząd nie mogą wykorzystywać tych informacji do niczego nielegalnego, ale może to narazić ludzi na cyberprzestępczość.

Byli ponad 28 000 cyberataków przeciwko rządowi USA w samym tylko 2019 roku. Jeśli agencje będą posiadać więcej prywatnych informacji obywateli, ataki te mogą dotyczyć nie tylko rządu. Udane naruszenie danych może zagrozić wielu osobom bez ich wiedzy. Naruszenia często pozostają niezauważone, więc musisz sprawdź, czy Twoje dane nie są jeszcze na sprzedaż.

Na przykład, jeśli robot policyjny w przyszłości wykorzysta rozpoznawanie twarzy do wyszukiwania poszukiwanych przestępców, może przechowywać dane biometryczne wielu obywateli. Hakerzy, którzy dostaną się do systemu, mogą ukraść te informacje i wykorzystać je do włamania się na konta bankowe ludzi. Rządowe projekty AI muszą mieć silne środki bezpieczeństwa cybernetycznego, jeśli nie chcą zagrażać danym ludzi.

Rządowa sztuczna inteligencja przynosi korzyści, ale budzi obawy

Nadal nie jest jasne, w jaki sposób rząd amerykański będzie wykorzystywał sztuczną inteligencję w przyszłości. Nowe zabezpieczenia i przepisy mogą rozwiązać te problemy i przynieść wszystkie korzyści płynące ze sztucznej inteligencji bez ryzyka. Na razie jednak te obawy budzą pewne alarmy.

Wszędzie, gdzie działa sztuczna inteligencja, pojawia się wiele obaw o prywatność. Te pytania stają się poważniejsze, ponieważ odgrywa większą rolę w rządzie. Projekty państwowej sztucznej inteligencji mogą przynieść wiele dobrego, ale mają też znaczny potencjał szkód.

Microsoft ostrzega, że ​​„1984” może się spełnić za trzy lata

Czytaj dalej

UdziałĆwierkaćUdziałE-mail

Powiązane tematy

  • Bezpieczeństwo
  • Sztuczna inteligencja
  • Prywatność w Internecie

O autorze

Shannon Flynn (79 opublikowanych artykułów)

Shannon jest twórcą treści z siedzibą w Philly, PA. Pisze w dziedzinie technologii od około 5 lat po ukończeniu studiów na kierunku informatyka. Shannon jest redaktorem naczelnym magazynu ReHack i zajmuje się tematami takimi jak cyberbezpieczeństwo, gry i technologia biznesowa.

Więcej od Shannona Flynna

Zapisz się do naszego newslettera

Dołącz do naszego newslettera, aby otrzymywać porady techniczne, recenzje, bezpłatne e-booki i ekskluzywne oferty!

Kliknij tutaj, aby zasubskrybować