Martwisz się o swoją prywatność podczas korzystania z ChatGPT w pracy? Oto kilka wskazówek, jak zapewnić bezpieczeństwo danych.
ChatGPT okazał się nieocenionym narzędziem do pracy. Jednak obawy dotyczące prywatności w Internecie podkreślają potrzebę czujności w ochronie wrażliwych danych. Niedawne incydenty naruszenia danych ChatGPT stanowią wyraźne przypomnienie, że technologia jest podatna na zagrożenia prywatności. Oto kilka wskazówek dotyczących odpowiedzialnego korzystania z ChatGPT w celu ochrony poufności danych służbowych.
1. Nie zapisuj historii czatu
Jednym z najprostszych, ale skutecznych sposobów ochrony prywatności jest unikanie zapisywania historii czatów. ChatGPT domyślnie przechowuje wszystkie interakcje między użytkownikami a chatbotem. Rozmowy te są gromadzone w celu szkolenia systemów OpenAI i podlegają kontroli moderatorów.
Chociaż moderacja konta gwarantuje przestrzeganie warunków i usług Open AI, stwarza również zagrożenia bezpieczeństwa dla użytkownika. W rzeczywistości,
Krawędź informuje, że firmy takie jak Apple, J.P. Morgan, Verizon i Amazon zakazały swoim pracownikom korzystania z usług za pomocą narzędzi AI w obawie przed wyciekiem lub zebraniem poufnych informacji wprowadzonych do tych systemów.Wykonaj następujące kroki, aby wyłączyć historię czatu:
- Kliknij wielokropek lub trzy kropki obok nazwy konta ChatGPT.
- Kliknij Ustawienia.
- Kliknij Kontrola danych.
- Wyłącz Historia czatu i trening.
Zauważ to OpenAI mówi, że nawet przy włączonym tym ustawieniu rozmowy są przechowywane przez 30 dni z możliwością dla moderatorów sprawdzenia ich pod kątem nadużyć przed trwałym usunięciem. Mimo to wyłączenie historii czatów jest jedną z najlepszych rzeczy, jakie możesz zrobić, jeśli chcesz nadal korzystać z ChatGPT.
Wskazówka: jeśli potrzebujesz dostępu do swoich danych w ChatGPT, wyeksportuj je najpierw. Możesz je również zapisać, robiąc zrzuty ekranu, ręcznie pisząc notatki, kopiując i wklejając je do osobnej aplikacji lub korzystając z bezpiecznego przechowywania w chmurze.
2. Usuń rozmowy
Jeden z duże problemy z ChatGPT OpenAI to potencjalne naruszenia danych. Awaria ChatGPT, która doprowadziła do wszczęcia dochodzenia przez Federalną Komisję Handlu, pokazuje, jak ryzykowne jest korzystanie z aplikacji.
Według Aktualizacja OpenAI dotycząca awarii z 20 marca 2023 r, błąd w bibliotece open-source spowodował incydent. Wyciek umożliwił użytkownikom przeglądanie tytułów historii czatów innych użytkowników. Ujawnił również informacje związane z płatnościami 1,2% subskrybentów ChatGPT Plus, w tym nazwiska, informacje o kartach kredytowych i adresy e-mail.
Usunięcie rozmów pomaga chronić dane przed tymi możliwymi zagrożeniami. Wykonaj następujące czynności, aby usunąć czaty:
- Kliknij wielokropek lub trzy kropki obok nazwy konta ChatGPT.
- Kliknij Ustawienia.
- Pod Ogólny, Kliknij Jasne aby wyczyścić wszystkie czaty.
Inną opcją jest wybranie każdej rozmowy i usunięcie jej. Ta metoda jest przydatna, jeśli nadal chcesz zachować niektóre czaty. Na liście rozmów kliknij czat, który chcesz usunąć. Wybierz ikonę kosza, aby usunąć dane.
3. Nie podawaj poufnych informacji o pracy ChatGPT
Zachowaj ostrożność i powstrzymaj się od przekazywania ChatGPT poufnych informacji związanych z pracą. Jeden z najczęstsze mity dotyczące prywatności w Internecie jest to, że firmy będą chronić twoje dane tylko dlatego, że tak stanowi ogólne oświadczenie w ich warunkach świadczenia usług.
Unikaj udostępniania dokumentacji finansowej, własności intelektualnej, informacji o klientach i chronionych informacji zdrowotnych. Zwiększasz ryzyko udostępnienia poufnych danych cyberprzestępcom. Może to nawet prowadzić do problemów prawnych dla Ciebie i Twojej firmy.
Ogromny wyciek danych ChatGPT od czerwca 2022 do maja 2023 pokazuje, jak ważny jest ten punkt. Dziennik wyszukiwarki informuje, że ponad 100 000 poświadczeń konta ChatGPT zostało naruszonych i sprzedanych na ciemnych rynkach internetowych z powodu incydentu.
Ogranicz interakcje z ChatGPT do zapytań niepoufnych i unikaj udostępniania zastrzeżonych informacji. Ponadto stosuj odpowiednią higienę haseł i włącz uwierzytelnianie dwuskładnikowe, aby zapobiec naruszeniu bezpieczeństwa konta.
4. Korzystaj z technik anonimizacji danych
Techniki anonimizacji danych pomagają chronić prywatność poszczególnych osób, jednocześnie zachowując wgląd w zbiory danych. Korzystając z ChatGPT do pracy, stosuj te techniki, aby zapobiec bezpośredniej lub pośredniej identyfikacji osób w danych.
Oto kilka podstawowych technik anonimizacji danych z Komisja Ochrony Danych Osobowych Singapuru:
- Tłumienie atrybutów: usuń całą część danych, które nie są potrzebne do zapytania. Załóżmy, że musisz przeanalizować wzorce wydatków klienta. Możesz podawać ChatGPT kwoty transakcji i daty zakupu. Nie udostępniaj jednak imienia i nazwiska klienta ani informacji o karcie kredytowej, ponieważ nie są one niezbędne do analizy.
- Pseudonimizacja: Zastąp informacje umożliwiające identyfikację pseudonimami. Na przykład możesz zastąpić nazwiska pacjentów w dokumentacji medycznej pseudonimami, takimi jak „Pacjent001”, „Pacjent002” i tak dalej.
- Zakłócenia danych: Nieznaczna modyfikacja wartości danych w określonym zakresie. Na przykład udostępniając dane dotyczące wieku pacjentów, można dodać małe losowe wartości (np. ±2 lata) do rzeczywistego wieku każdej osoby.
- Uogólnienie: Celowo zmniejsz ilość danych. Na przykład, zamiast ujawniać dokładny wiek osób, możesz uogólnić dane, grupując wiek w szersze przedziały (np. 20-30, 31-40 itd.).
- Maskowanie postaci: Pokaż tylko część poufnych danych. Na przykład możesz wpisać tylko trzy pierwsze cyfry numeru telefonu, a resztę zamienić na X (np. 555-XXX-XXXX).
Anonimizacja nie jest niezawodna, ponieważ dane można zdeanonimizować. Zrozumieć deanonimizacji i jak temu zapobiec przed użyciem którejkolwiek z tych technik. Oceń ryzyko przed udostępnieniem anonimowych danych.
5. Ogranicz dostęp do wrażliwych danych
Ograniczenie dostępu do poufnych danych służbowych ma kluczowe znaczenie, gdy pracownicy mogą korzystać z ChatGPT. Jeśli pracujesz na stanowisku kierowniczym, ogranicz dostęp do poufnych informacji do upoważnionego personelu, który potrzebuje ich do pełnienia określonych ról.
Dodatkowo wprowadź kontrolę dostępu, aby chronić dane swojej firmy. Na przykład kontrola dostępu oparta na rolach (RBAC) zapewnia upoważnionym pracownikom dostęp tylko do danych niezbędnych do wykonywania ich zadań. Możesz także przeprowadzać regularne przeglądy dostępu, aby upewnić się, że kontrole dostępu są skuteczne. Nie zapomnij odebrać dostępu pracownikom, którzy zmieniają role lub odchodzą z firmy.
6. Uważaj na aplikacje innych firm
Czy aplikacje i rozszerzenia przeglądarki ChatGPT innych firm są bezpieczne to ważne pytanie, które należy zadać. Przed użyciem którejkolwiek z tych aplikacji do pracy dokładnie je sprawdź i przeanalizuj. Upewnij się, że nie zbierają i nie przechowują informacji w wątpliwych celach.
Nie instaluj podejrzanych aplikacji, które proszą o losowe uprawnienia na telefonie. Zweryfikuj ich praktyki w zakresie przetwarzania danych, aby sprawdzić, czy są one zgodne ze standardami prywatności Twojej organizacji.
Korzystaj z ChatGPT odpowiedzialnie w pracy
Zachowanie prywatności podczas korzystania z ChatGPT w pracy jest trudne. Jeśli absolutnie musisz używać ChatGPT do wykonywania swojej pracy, zrozum związane z tym ryzyko prywatności. Nie ma niezawodnej metody ochrony danych po przekazaniu ich narzędziu AI. Ale możesz podjąć kroki, aby zmniejszyć ryzyko wycieku danych.
ChatGPT ma wiele praktycznych zastosowań w pracy, ale podczas korzystania z niego należy chronić dane firmowe. Zrozumienie polityki prywatności ChatGPT powinno pomóc Ci zdecydować, czy narzędzie jest warte ryzyka.