ChatGPT jest przydatny do wielu zadań, ale ma kilka krytycznych niedociągnięć, które powinny sprawić, że zastanowisz się dwa razy, zanim zaufasz mu jako poradę medyczną.
ChatGPT — chatbot ze sztuczną inteligencją (AI) opracowany przez OpenAI — stał się wszechstronnym narzędziem do odpowiadania na wiele prostych i trudnych pytań, w tym na prośby o poradę medyczną. Może odpowiedzieć na pytania medyczne i zdać egzamin USMLE (United States Medical Licensing Exam), ale nie może zastąpić wizyty u lekarza w szpitalu.
Wraz z postępem ChatGPT ma potencjał, aby całkowicie zmienić sektor opieki zdrowotnej. Po zintegrowaniu z systemami opieki zdrowotnej może poprawić dostęp pacjentów do opieki i zwiększyć efektywność pracy lekarzy. Ponieważ jednak jest oparty na sztucznej inteligencji, istnieje kilka obaw związanych z jego potencjalnymi zagrożeniami.
1. ChatGPT ma ograniczoną wiedzę
ChatGPT nie wie wszystkiego. Według OpenAI, ChatGPT ma ograniczoną wiedzę, szczególnie jeśli chodzi o to, co wydarzyło się po wrześniu 2021 r.
ChatGPT nie ma bezpośredniego dostępu do wyszukiwarek ani internetu. Został wyszkolony przy użyciu ogromnej ilości danych tekstowych z wielu źródeł, w tym książek, stron internetowych i innych tekstów. Nie „zna” danych, które dostarcza. Zamiast tego ChatGPT używa przeczytanego tekstu do tworzenia prognoz dotyczących słów, których należy użyć i w jakiej kolejności.
W związku z tym nie może otrzymywać bieżących informacji o rozwoju sytuacji w dziedzinie medycyny. Tak, ChatGPT nie jest świadomy przeszczepu serca ze świni na człowieka ani żadnych innych niedawnych przełomów w naukach medycznych.
2. ChatGPT może generować nieprawidłowe informacje
ChatGPT może odpowiedzieć na zadawane pytania, ale odpowiedzi mogą być niedokładne lub stronnicze. Według Cyfrowe zdrowie PLoS badanie, ChatGPT wykonał z co najmniej 50% dokładnością we wszystkich egzaminach USMLE. I chociaż w niektórych aspektach przekroczył próg 60%, nadal istnieje możliwość błędu.
Co więcej, nie wszystkie informacje użyte do trenowania ChatGPT są autentyczne. Odpowiedzi oparte na niezweryfikowanych lub potencjalnie stronniczych informacjach mogą być nieprawidłowe lub nieaktualne. W świecie medycyny niedokładne informacje mogą kosztować nawet życie.
Ponieważ ChatGPT nie może samodzielnie badać ani weryfikować materiałów, nie może rozróżniać faktów od fikcji. Szanowane czasopisma medyczne, w tym Journal of the American Medical Association (JAMA), mają ustanowił surowe przepisy, zgodnie z którymi tylko ludzie mogą pisać opracowania naukowe publikowane w dziennik. W rezultacie, powinieneś stale sprawdzać fakty w odpowiedziach ChatGPT.
3. ChatGPT nie bada Cię fizycznie
Diagnozy medyczne nie opierają się wyłącznie na objawach. Lekarze mogą uzyskać wgląd w schemat i ciężkość choroby poprzez badanie fizykalne pacjenta. Do diagnozowania pacjentów lekarze wykorzystują dziś zarówno technologie medyczne, jak i pięć zmysłów.
ChatGPT nie może przeprowadzić pełnej wirtualnej kontroli ani nawet badania fizykalnego; może odpowiadać tylko na objawy, które podajesz jako wiadomości. Dla bezpieczeństwa i opieki nad pacjentem błędy w badaniu przedmiotowym — lub całkowite zignorowanie badania przedmiotowego — mogą być szkodliwe. Ponieważ ChatGPT nie zbadał Cię fizycznie, przedstawi błędną diagnozę.
4. ChatGPT może dostarczać fałszywych informacji
Niedawne badanie przeprowadzone przez Szkoła Medyczna Uniwersytetu Maryland w sprawie porad ChatGPT dotyczących badań przesiewowych w kierunku raka piersi znaleziono następujące wyniki:
„Widzieliśmy z naszego doświadczenia, że ChatGPT czasami wymyśla fałszywe artykuły w czasopismach lub konsorcjach zdrowotnych, aby poprzeć swoje twierdzenia”. —Paul Yi MD, adiunkt radiologii diagnostycznej i medycyny nuklearnej na UMSOM
W ramach naszych testów ChatGPT poprosiliśmy o listę książek non-fiction, które obejmują temat podświadomości. W rezultacie ChatGPT wyprodukował fałszywą książkę zatytułowaną „Potęga nieświadomego umysłu” autorstwa dr Gustava Kuhna.
Kiedy zapytaliśmy o książkę, odpowiedziała, że jest to „hipotetyczna” książka, którą stworzyła. ChatGPT nie powie Ci, czy artykuł w czasopiśmie lub książka jest fałszywa, jeśli nie zapytasz dalej.
5. ChatGPT to tylko model języka AI
Modele językowe funkcjonują na zasadzie zapamiętywania i uogólniania tekstu, a nie badania lub studiowania stanu pacjenta. Pomimo generowania odpowiedzi, które odpowiadają ludzkim standardom pod względem języka i gramatyki, ChatGPT nadal zawiera wiele problemów, podobnie jak inne boty AI.
ChatGPT nie zastępuje Twojego lekarza
Ludzcy lekarze zawsze będą potrzebni, aby podejmować ostateczne decyzje dotyczące opieki zdrowotnej. ChatGPT zwykle zaleca rozmowę z licencjonowanym lekarzem, gdy prosisz o poradę medyczną.
Narzędzia oparte na sztucznej inteligencji, takie jak ChatGPT, mogą być używane do planowania wizyt lekarskich, pomagania pacjentom w otrzymywaniu leczenia i przechowywania informacji o ich stanie zdrowia. Ale nie może zastąpić wiedzy i empatii lekarza.
Nie powinieneś polegać na narzędziu opartym na sztucznej inteligencji do diagnozowania lub leczenia swojego zdrowia, czy to fizycznego, czy psychicznego.