Pracownicy firmy Samsung przypadkowo ujawnili prywatne dane firmowe za pośrednictwem ChatGPT — przykład tego, dlaczego sztuczna inteligencja jest tak dużym zagrożeniem dla Twojej prywatności i bezpieczeństwa.
ChatGPT stał się poważnym problemem związanym z bezpieczeństwem i prywatnością, ponieważ zbyt wielu z nas w roztargnieniu udostępnia na nim nasze prywatne informacje. ChatGPT rejestruje każdą rozmowę, którą z nim prowadzisz, w tym wszelkie udostępniane przez Ciebie dane osobowe. Mimo to nie wiedziałbyś tego, gdybyś nie przekopał się przez politykę prywatności OpenAI, warunki korzystania z usługi i stronę FAQ, aby to poskładać.
Wyciek własnych informacji jest wystarczająco niebezpieczny, ale biorąc pod uwagę, że wielkie firmy używają ChatGPT do codziennego przetwarzania informacji, może to być początek katastrofy związanej z wyciekiem danych.
Samsung ujawnił poufne informacje za pośrednictwem ChatGPT
Według Gizmodo, pracownicy Samsunga omyłkowo ujawnili poufne informacje za pośrednictwem ChatGPT przy trzech różnych okazjach w ciągu 20 dni. To tylko jeden przykład tego, jak łatwo firmy mogą naruszyć prywatne informacje.
ChatGPT jest publicznie pod ostrzałem ze względu na problemy z prywatnością, więc to znaczne niedopatrzenie, że Samsung na to pozwolił. Niektóre kraje zakazały nawet ChatGPT aby chronić swoich obywateli, dopóki nie poprawi to ich prywatności, więc można by pomyśleć, że firmy będą bardziej uważać na to, jak ich pracownicy z tego korzystają.
Na szczęście wygląda na to, że klienci Samsunga są bezpieczni – przynajmniej na razie. Naruszone dane dotyczą tylko wewnętrznych praktyk biznesowych, niektórych zastrzeżonych kodów, z którymi rozwiązywali problemy, oraz protokołu ze spotkania zespołu, wszystkie przesłane przez pracowników. Jednak pracownicy równie łatwo mogliby ujawnić dane osobowe konsumentów, a to tylko kwestia czasu, zanim zobaczymy, jak robi to inna firma. Jeśli tak się stanie, możemy spodziewać się zobaczyć ogromny wzrost oszustw typu phishing i kradzież tożsamości.
Jest tu także inna warstwa ryzyka. Jeśli pracownicy używają ChatGPT do wyszukiwania błędów, tak jak w przypadku wycieku Samsunga, kod, który wpisują w oknie czatu, będzie również przechowywany na serwerach OpenAI. Może to prowadzić do naruszeń, które mają ogromny wpływ na firmy rozwiązujące problemy z niewydanymi produktami i programami. Może się nawet zdarzyć, że wyciekną informacje, takie jak nieopublikowane biznesplany, przyszłe wydania i prototypy, co spowoduje ogromne straty w dochodach.
Jak dochodzi do wycieków danych ChatGPT?
Polityka prywatności ChatGPT wyjaśnia, że rejestruje twoje rozmowy i udostępnia dzienniki innym firmom i swoim trenerom AI. Gdy ktoś (na przykład pracownik firmy Samsung) wpisuje poufne informacje w oknie dialogowym, są one rejestrowane i zapisywane na serwerach ChatGPT.
Jest wysoce nieprawdopodobne, że pracownicy zrobili to celowo, ale to jest przerażające. Większość naruszeń danych jest spowodowana błędem ludzkim. Często dzieje się tak dlatego, że firma nie przeszkoliła swoich pracowników w zakresie zagrożeń dla prywatności związanych z używaniem narzędzi takich jak sztuczna inteligencja.
Na przykład, jeśli wkleją dużą listę kontaktów do czatu i poproszą sztuczną inteligencję o wyodrębnienie numerów telefonów klientów z danych, ChatGPT zapisuje te nazwiska i numery telefonów w swoich rejestrach. Twoje prywatne informacje są na łasce firm, którym ich nie udostępniłeś, które mogą nie chronić ich wystarczająco dobrze, aby zapewnić Ci bezpieczeństwo. Jest kilka rzeczy, które możesz zrobić zapewnij sobie bezpieczeństwo po naruszeniu danych, ale przedsiębiorstwa powinny być odpowiedzialne za zapobieganie wyciekom.
Morał z tej historii: nie zdradzaj ChatGPT swoich sekretów
Możesz bezpiecznie używać ChatGPT do setek różnych zadań, ale organizowanie poufnych informacji nie jest jednym z nich. Musisz uważać, aby nie wpisywać niczego osobistego w oknie czatu, w tym imienia i nazwiska, adresu, adresu e-mail i numeru telefonu. Łatwo popełnić ten błąd, więc należy uważnie sprawdzać podpowiedzi, aby upewnić się, że nic przypadkowo się nie pojawiło.
Wyciek Samsunga pokazuje nam, jak realne jest ryzyko wycieku danych związanych z ChatGPT. Niestety, zobaczymy więcej tego typu błędów, być może o znacznie większych skutkach, ponieważ sztuczna inteligencja staje się podstawową częścią większości procesów biznesowych.