Reklama
Facebook zwiększa wysiłki, aby pomóc ludziom mającym myśli samobójcze. Sieć społecznościowa wykorzystuje sztuczną inteligencję do identyfikowania osób zagrożonych. Chociaż ma to wpływ na prywatność, może pomóc uratować niezliczone życie każdego roku. To musi być dobra rzecz.
Depresja i inne formy chorób psychicznych mogą być wyniszczające. I nie każdy ma taką sieć wsparcia potrzebną, aby przetrwać próby. Jednak nawet jeśli ktoś nie jest w stanie osobiście skontaktować się z przyjacielem, nadal może wołać o pomoc na Facebooku. Dlatego sieć społecznościowa stara się pomagać osobom wyrażającym myśli samobójcze na swojej platformie.
Facebook pomaga ludziom wyrażać myśli samobójcze
Facebook ma szczegółowe kroki potrzeba pomocy ludziom, którzy jej potrzebują. Obejmuje to wykorzystanie sztucznej inteligencji do „wykrywania postów lub filmów na żywo, o których ktoś może wyrazić swoje myśli samobójstwo ”, identyfikacja odpowiednich osób udzielających pierwszej pomocy, a następnie zatrudnienie większej liczby osób w celu„ przeglądu raportów o samobójstwie lub samobójstwie zaszkodzić".
Sieć społecznościowa testowała ten system w Stanach Zjednoczonych przez ostatni miesiąc i „współpracowała z pierwszymi osobami udzielającymi pomocy w ponad 100 wellness kontrole na podstawie raportów otrzymanych dzięki naszym proaktywnym działaniom wykrywającym. ” W niektórych przypadkach powiadomiono lokalne władze w celu Wsparcie.
Oto dobre zastosowanie sztucznej inteligencji: zapobieganie samobójstwom. Od dziś aktualizujemy nasze narzędzia AI, aby zidentyfikować, kiedy ktoś…
Wysłane przez Mark Zuckerberg na Poniedziałek, 27 listopada 2017 r
Teraz Facebook rozszerza zastosowanie sztucznej inteligencji, którą nazywa „technologią rozpoznawania wzorców”, i ostatecznie będzie dostępna na całym świecie, z wyjątkiem UE. Wynika to z faktu, że UE ma Ogólne rozporządzenie o ochronie danych co uniemożliwia firmom wykorzystywanie poufnych informacji do profilowania swoich użytkowników.
Niestety, pomimo wszystkich dobrych intencji, ta inicjatywa ma nieunikniony i niezaprzeczalny minus. Ponieważ oznacza to, że Facebook monitoruje to, co mówisz na swojej platformie. I chociaż monitorowanie myśli samobójczych ma potencjał, by czynić dobro, jest to także naruszenie prywatności. Właśnie dlatego Facebook nie może wprowadzić tego w UE dzięki surowszym przepisom dotyczącym prywatności.
Facebook walczy o dobrą walkę z depresją
Depresja występuje częściej, niż mogłoby się wydawać, i istnieją dowody do zasugerowania technologia może pogorszyć sytuację 5 sposobów, które technologia może karmić Twoją depresjęTechnologia może pogorszyć depresję. Ponieważ technologia ogarnia nasze życie, powinniśmy być bardziej świadomi potencjalnego wpływu technologii na nas. Istnieje kilka rzeczy, które możesz zrobić, aby zmniejszyć obciążenie. Czytaj więcej . Jednak Internet może również działać jako tymczasowa grupa wsparcia Depresja i Internet: Witamy w tymczasowej grupie wsparciaRozmowa jest ważna, a czasem Internet jest dobrym substytutem, gdy twoi prawdziwi przyjaciele nie są w pobliżu. Oto trzy strony, które polecam w przypadku mniej formalnych rozmów skoncentrowanych na depresji. Czytaj więcej , z wieloma zasoby zaprojektowane, aby pomóc 7 zasobów online, aby pomóc osobom z depresją i samobójstwemMimo że jestem redaktorem naczelnym MakeUseOf, w moim życiu mam ogromną niepełnosprawność, jaką jest depresja kliniczna. Zaczęło się w 2002 roku, jako depresja związana ze stresem w mojej pracy ... Czytaj więcej . Facebook po prostu wykorzystuje inne narzędzie w tej walce.
Co sądzisz o nowych wysiłkach Facebooka, aby pomóc w zapobieganiu samobójstwom? Czy obowiązkiem Facebooka jest wprowadzenie takich zabezpieczeń? Czy uważasz, że jest to spowodowane autentyczną troską użytkowników? Czy to tylko kolejny sposób naruszania prywatności ludzi? Daj nam znać w komentarzach poniżej!
Dave Parrack to brytyjski pisarz, który fascynuje się technologią. Z ponad 10-letnim doświadczeniem w pisaniu publikacji internetowych jest teraz zastępcą redaktora MakeUseOf.