Dyskusje na temat wrażliwości AI nie są niczym nowym, ale wiadomości o AI LaMDA firmy Google podsyciły płomienie. Po tym, jak inżynier stwierdził, że bot był świadomy, a nawet miał duszę, pojawiły się znajome pytania.
Czy sztuczna inteligencja, taka jak LaMDA, może być świadoma lub samoświadoma, a jeśli tak, to jak możesz to stwierdzić? Czy to ma znaczenie?
Co to jest LaMDA?
LaMDA, skrót od Language Model for Dialogue Applications, po raz pierwszy pojawił się w 2021 roku na konferencji programistów Google. Zaawansowany system AI ma pomóc w budowie innych, mniejszych chatbotów. Kiedy Google wprowadził go po raz pierwszy, ogłosił plany zintegrowania go ze wszystkim, pomagając usługom takim jak Asystent Google i wyszukiwarka poczuć się bardziej ludzkim lub przynajmniej naturalnym.
Kiedy inżynier Google Blake Lemoine rozmawiał z LaMDA, aby sprawdzić, czy używa ona mowy nienawiści, wyszedł z innym wrażeniem. Lemoine twierdził, że LaMDA jest świadomy, a gdyby nie wiedział, że to robot, pomyślałby, że to ośmioletnie dziecko.
Po rozmowach z LaMDA Lemoine próbował udowodnić, że jest świadomy i bronić tego, co uważał za swoje prawa. W odpowiedzi Google umieściło Lemoine na płatnym urlopie administracyjnym za złamanie umów o zachowaniu poufności.
Czy LaMDA jest rzeczywiście świadomy?
Czy zatem LaMDA jest rzeczywiście wrażliwy? Większość ekspertów, którzy rozważali tę kwestię, jest sceptycznych. LaMDA to wysoce zaawansowana platforma czatu AI analizująca biliony słów z Internetu, dzięki czemu potrafi brzmieć jak prawdziwa osoba.
To nie pierwszy raz, kiedy jedna z AI Google oszukała ludzi, by myśleli, że jest ludzka. W 2018 r. Google zademonstrował swoją sztuczną inteligencję Duplex, dzwoniąc do restauracji w celu zarezerwowania stolika. W żadnym momencie pracownik po drugiej stronie nie wydawał się wątpić, że rozmawia z kimś.
Zdanie jest trudne do zdefiniowania, chociaż większość ludzi wątpię, że sztuczna inteligencja osiągnęła ten punkt już. Jednak ważnym pytaniem może nie być to, czy LaMDA jest rzeczywiście świadomy, ale jaką ma różnicę, jeśli może oszukać ludzi, by myśleli, że jest.
Możliwe konsekwencje prawne LaMDA
Sytuacja LaMDA rodzi wiele pytań prawnych i etycznych. Po pierwsze, niektórzy ludzie mogą kwestionować, czy Google miał rację, umieszczając Lemoine na urlopie za mówienie o tym.
Zgodnie z sekcją 740 nowojorskiego prawa pracy ochrona sygnalistów chroni pracowników przed takimi konsekwencje, jeśli uważają, że praktyki pracodawcy łamią prawo lub stwarzają znaczne zagrożenie dla społeczeństwa bezpieczeństwo. Rzekoma świadomość LaMDA nie do końca spełnia ten wymóg prawny, ale czy powinna?
Przyznawanie praw AI to trudny temat. Chociaż AI może tworzyć rzeczy i wydawać się ludźmi, możesz napotkać skomplikowane sytuacje, jeśli te maszyny mają ochronę prawną. Prawa działają wokół nagród i kar, które nie wpływają na sztuczną inteligencję, komplikując sprawiedliwość.
Jeśli autonomiczny samochód uderzy w pieszego, czy AI jest winna, jeśli prawo traktuje go jak człowieka? A jeśli tak, to nie daje to dokładnej sprawiedliwości ofierze, ponieważ technicznie nie można ukarać sztucznej inteligencji w taki sam sposób, jak człowieka.
Kolejnym pytaniem, które pojawia się w przypadku LaMDA i podobnych chatbotów AI, jest ich bezpieczeństwo. Jeśli te boty wydają się przekonująco prawdziwe, ludzie mogą im bardziej ufać i chcieć im dać bardziej wrażliwe informacje. To otwiera drzwi do mnóstwa problemów związanych z prywatnością i bezpieczeństwem, jeśli ta technologia wpadnie w niepowołane ręce.
AI wprowadza skomplikowane pytania etyczne
Sztuczna inteligencja, taka jak LaMDA, staje się coraz bardziej wyrafinowana i realistyczna. Wraz ze wzrostem tego trendu firmy i prawodawcy powinni ponownie ocenić, w jaki sposób traktują sztuczną inteligencję i jak te decyzje mogą wpływać na sprawiedliwość i bezpieczeństwo.
W obecnej postaci sztuczna inteligencja LaMDA firmy Google może nie być świadoma, ale jest wystarczająco dobra, aby oszukać ludzi, co powinno wywołać pewne alarmy.