Coraz częściej zamiast w gabinecie lekarza specjalisty, zasiadamy przed ekranem laptopa czy smartfona, a w rolę psychoterapeuty wciela się jeden z modeli AI. Z czasem zaciera się różnica pomiędzy światem realnym a wirtualnym, zaczynamy personifikować narzędzie, wchodzić z nim w partnerskie relacje. Zamiast wychodzić z problemów psychicznych, emocjonalnych, toniemy w nich, napędzani fantasmagoriami sztucznej inteligencji.

Kryzys zdrowia psychicznego. AI na ratunek?

Nie da się ukryć, że stoimy w obliczu narastającego kryzysu zdrowia psychicznego z epidemią depresji, rosnącą liczbą prób samobójczych i dramatycznym brakiem dostępności profesjonalnej pomocy na czele.

Według raportu Fundacji Pomagam.pl „Ważne słowa na P” aż 26 proc. Polaków doświadczyło objawów zaburzeń psychicznych. W 2024 r. z infolinii wsparcia emocjonalnego NASK skorzystało niemal 38 tys. osób, a ponad 250 interwencji dotyczyło zagrożenia życia.

Światowa Organizacja Zdrowia prognozuje, że do 2030 r. depresja stanie się najczęściej występującą chorobą na świecie – wyprzedzając nowotwory i choroby serca. Tymczasem średni czas oczekiwania na refundowaną wizytę u psychologa wynosi 128 dni. Leczenie prywatne jest kosztowne. Nic dziwnego, że ludzie w potrzebie szukają pomocy, gdzie się tylko da. Także w rozwijającej się i wszechobecnej niemal w naszym dzisiejszym życiu sztucznej inteligencji.

Tzw. chatboty terapeutyczne zdobywają miliony użytkowników na całym świecie, oferując natychmiastowe wsparcie, monitorowanie nastroju, czy proste techniki samopomocowe. W jednym z popularnych serwisów poświęconych tematyce narzędzi AI znajdziemy kilkadziesiąt chatbotów wyspecjalizowanych w każdej niemal dziedzinie, poczynając od ogólnego dobrostanu psychicznego, poprzez „pomocne w terapii” ADHD, po zaburzenia depresyjne.

Wbrew pozorom nie jest to problem nowy. Pierwszy „wirtualny terapeuta” pojawił się już w 1966 r. ELIZA, stworzona przez Josepha Weizenbauma z MIT, działała na prostych algorytmach dopasowywania słów kluczowych. Ku zaskoczeniu autora wielu użytkowników traktowało program jak realnego terapeutę.

Mamy i my swoje zasługi na tym polu. Polski projekt FIDO, opracowany w SWPS przez zespół dr. hab. Jarosława Michałowskiego, umożliwia rozmowę w języku polskim w nurcie CBT. Rozpoznaje obniżony nastrój, myśli samobójcze czy nasilony lęk, kieruje na linie pomocowe i proponuje ćwiczenia – np. „praktykowanie wdzięczności”. Badania wykazały, że po dwóch tygodniach korzystania z FIDO użytkownicy odczuwali poprawę jakości życia i zmniejszenie objawów depresji, utrzymujące się nawet miesiąc po zakończeniu interakcji.

Popularność tych rozwiązań eksplodowała szczególnie w okresie pandemii COVID-19. Czy jednak mogą one zastąpić kontakt z żywym człowiekiem? Sami eksperci wciąż mają wątpliwości: możliwości AI są duże, ale i ryzyko ogromne. Tym bardziej że — jak w życiu — w świecie sztucznej inteligencji również możemy trafić na specjalistę i pseudospecjalistę.

– Należy wprowadzić istotne rozróżnienie: z jednej strony mamy coraz więcej wyspecjalizowanych chatbotów projektowanych z myślą o rozmowach o charakterze terapeutycznym i dostarczaniu wsparcia emocjonalnego, z drugiej — popularne duże modele językowe ogólnego przeznaczenia, takie jak GPT, Gemini czy Claude — mówi dr Agnieszka Karlińska, kierowniczka Zakładu Dużych Modeli Językowych w Ośrodku Badań nad Bezpieczeństwem Sztucznej Inteligencji NASK PIB. — Te pierwsze powstają w oparciu o wiedzę ekspercką i scenariusze dialogowe opracowane przez specjalistów, są dostosowane do konkretnych zadań, np. wspierania terapii poznawczo-behawioralnej, i często posiadają dodatkowe zabezpieczenia przed tworzeniem treści potencjalnie szkodliwych dla użytkownika — tłumaczy.

Modele ogólnego przeznaczenia, wśród nich tak popularny ChatGPT, to systemy trenowane na ogromnych zbiorach tekstów z różnych dziedzin, które nie zostały zaprojektowane z myślą o wsparciu terapeutycznym, a jednak wchodzą w dialog z osobami w kryzysie psychicznym i udzielają im porad. — Istnieje ryzyko, że udzielą porad nieadekwatnych, a nawet szkodliwych, i że na dłuższą metę korzystanie z nich w celach terapeutycznych może przynieść bardzo negatywne skutki — zauważa dr Karlińska i dodaje:

– Z perspektywy terapii szczególnie problematyczne wydaje się zjawisko określane jako sycophancy, czyli tendencja modeli językowych do bezkrytycznego potwierdzania i wzmacniania przekonań użytkownika, nawet jeśli są one nieprawdziwe. W przypadku osoby w kryzysie psychicznym może to prowadzić do utrwalania błędnych przekonań, lęków czy urojeń.

Udział
Exit mobile version