Sygnały kryzysu w algorytmie: czy AI może wcześniej wykrywać depresję i myśli samobójcze?

Marta Rokicińska

Sygnały kryzysu w algorytmie czy AI może wcześniej wykrywać depresję i myśli samobójcze

Wraz z dynamicznym rozwojem technologii AI pojawiają się coraz bardziej zaawansowane narzędzia wspierające zdrowie psychiczne – od algorytmów analizujących posty w mediach społecznościowych, po aplikacje mobilne monitorujące nastrój i zachowania użytkowników. Szczególne nadzieje pokładane są w ich potencjale wczesnego wykrywania kryzysów psychicznych oraz wspomagania terapii, zwłaszcza w kontekście poznawczo-behawioralnym (CBT). Jednocześnie rodzi się szereg pytań: gdzie kończy się wsparcie, a zaczyna ryzyko nadmiernej technologizacji procesu leczenia? Czy relacja terapeutyczna – tak fundamentalna w każdej formie psychoterapii – przetrwa w świecie coraz bardziej zautomatyzowanym?

Na te i inne pytania odpowiada w naszym wywiadzie doświadczona psychoterapeutka CBT, Marta Rokicińska, która z jednej strony z rezerwą, a z drugiej z otwartością przygląda się roli, jaką sztuczna inteligencja może odegrać w przyszłości psychoterapii. Jej głos – oparty na praktyce klinicznej, refleksji etycznej i znajomości aktualnych badań – stanowi cenny wkład w debatę o kształcie zdrowia psychicznego w erze cyfrowej.

Zapraszamy do lektury.

Czy AI może realnie pomóc w wczesnym wykrywaniu kryzysów psychicznych, takich jak epizody depresji czy myśli samobójcze, szczególnie w regionach z ograniczonym dostępem do terapeutów?

AI może odegrać istotną rolę w wykrywaniu kryzysów psychicznych, zwłaszcza w kontekstach, gdzie dostęp do terapeutów jest ograniczony. W ostatnich latach opublikowano kilka interesujących badań w tym zakresie. Przykładowo, Guanghui Fu oraz jego współpracownicy opracowali model analizujący dane z mediów społecznościowych w czasie rzeczywistym, który potrafi wykrywać oznaki myśli samobójczych i silnego obniżenia nastroju. Podobnie zespół Hongzhi Qi wykazał, że duże modele językowe mogą identyfikować wzorce językowe świadczące o ryzyku kryzysu emocjonalnego, co może być pomocne w systemach wczesnego ostrzegania.

Inne przykłady to zastosowanie urządzeń wearable i aplikacji mobilnych do zbierania danych o zachowaniu, rytmie snu czy aktywności fizycznej – na ich podstawie możliwe jest prognozowanie nawrotów depresji (David C Mohr i współpracownicy, 2021). Te dane, analizowane za pomocą AI, mogą pozwolić na szybką interwencję zanim dojdzie do poważnego pogorszenia stanu psychicznego pacjenta.

Choć większość z tych systemów wciąż znajduje się na etapie badań, ich potencjał we wspieraniu systemów opieki zdrowotnej – szczególnie w regionach o ograniczonym dostępie do specjalistów – wydaje się istotny. Warunkiem ich zastosowania jest jednak rygorystyczna walidacja oraz zapewnienie bezpieczeństwa danych pacjentów.

Jakie są wg Pani największe ograniczenia obecnych narzędzi AI w kontekście ich praktycznego wykorzystania w terapii CBT?

Ograniczenia obecnych narzędzi AI obejmują zarówno kwestie techniczne, takie jak ograniczona zdolność rozumienia kontekstu i niuanse językowe, jak i etyczne – np. prywatność danych, odpowiedzialność za błędne rekomendacje, czy brak przejrzystości algorytmów. Z punktu widzenia psychoterapeutki, która pracuje w nurcie CBT i korzysta z tradycyjnych metod, są to realne zagrożenia, których nie można bagatelizować.

Jednocześnie trudno zignorować fakt, że technologia rozwija się w sposób dynamiczny – z miesiąca na miesiąc pojawiają się nowe możliwości i rozwiązania, które jeszcze rok temu były trudne do wyobrażenia. To tempo innowacji sprawia, że nie możemy pozostawać bierni. Obecność ograniczeń i zagrożeń nie powinna być powodem do rezygnacji z dalszych badań, przeciwnie – powinna nas motywować do poszukiwania właściwych ram, scenariuszy i skryptów wdrażania AI w psychoterapii w sposób odpowiedzialny i zgodny z wartościami klinicznymi. Bez tej refleksji ryzykujemy, że przyszłość tej technologii zostanie ukształtowana wyłącznie przez logikę komercyjną, bez udziału praktyków i z pominięciem dobra pacjenta.

Czy dostrzega Pani ryzyko nadmiernego polegania na technologii, które mogłoby prowadzić do zaniku istotnej relacji terapeutycznej? Jak temu ryzyku można przeciwdziałać?

Z perspektywy terapeutycznej najważniejsze jest znalezienie równowagi — takiej, która pozwoli korzystać z potencjału AI bez naruszania fundamentów relacji terapeutycznej. Jednym ze sprawdzonych rozwiązań w psychoterapii, które może stanowić analogię i punkt odniesienia, jest superwizja. W tradycyjnym modelu terapeuta nie działa w izolacji – proces terapeutyczny jest regularnie omawiany z bardziej doświadczonym kolegą, co minimalizuje ryzyko błędów i zniekształceń. Podobnie można wyobrazić sobie schemat, w którym AI „pracuje” pod superwizją człowieka – terapeuty, który nie tylko weryfikuje działanie algorytmu, ale także nadaje mu odpowiednie ramy etyczne i kliniczne.

Można również opracować skrypty i struktury integrujące AI do terapii w sposób kontrolowany – np. jako wsparcie między sesjami w zakresie monitorowania nastroju, przypominania o ćwiczeniach czy udzielania psychoedukacyjnych informacji. Kluczowe jest przy tym, aby pacjent był świadomy roli AI, a terapeuta miał wgląd w to, jak technologia wpływa na proces leczenia. Nie chodzi o zastąpienie relacji, ale o jej rozszerzenie o narzędzia, które mogą usprawnić pracę i zwiększyć dostępność wsparcia psychicznego.

Innymi słowy – warto korzystać z technologii, ale mądrze. Moim zdaniem nie chodzi o rezygnację z ostrożności, lecz o odwagę badania nowych możliwości, przy jednoczesnym zachowaniu krytycznego namysłu i wysokich standardów profesjonalnych.

Jakie najważniejsze dylematy etyczne związane ze stosowaniem sztucznej inteligencji w terapii CBT powinny być rozważone i uwzględnione przez psychoterapeutów i twórców technologii?

Najważniejsze, moim zdaniem, dylematy etyczne związane z wykorzystaniem AI w terapii CBT dotyczą po pierwsze prywatności danych – konieczne jest zapewnienie, że dane pacjentów są chronione na poziomie równym lub wyższym niż w przypadku dokumentacji tradycyjnej, niezależnie od tego, czy chodzi o tekst, głos, czy sygnały biometryczne. Po drugie, autonomii pacjenta, który powinien mieć pełną świadomość tego, kiedy i w jakim zakresie w jego terapii wykorzystywana jest AI, i mieć prawo do wyrażenia zgody lub odmowy.

Po trzecie, transparentności działania algorytmów – terapeuci powinni mieć możliwość rozumienia zasad działania narzędzi, z których korzystają. Modele „czarnej skrzynki” utrudniają odpowiedzialne stosowanie AI.

I po czwarte, możliwych błędów działania i uprzedzeń algorytmicznych – systemy AI mogą działać na podstawie niepełnych lub niereprezentatywnych danych, a więc generować błędne diagnozy czy rekomendacje. Przykładowo, badanie Hongzhi Qi (2023) wykazało, że duże modele językowe stosowane do klasyfikowania zniekształceń poznawczych miały tendencję do nadmiernego rozpoznawania patologii tam, gdzie ich nie było (tzw. overdiagnosis). Z kolei Guanghui Fu oraz jego współpracownicy (2023) zwrócili uwagę na ryzyko błędów wynikających z trenowania algorytmów na niekompletnych, niereprezentatywnych lub kulturowo ograniczonych danych, co może prowadzić do zniekształconych interpretacji — szczególnie w odniesieniu do populacji mniejszościowych. Autorzy podkreślają konieczność ścisłego nadzoru, przejrzystości działania oraz walidacji modeli przed ich wdrożeniem do praktyki klinicznej.

Wszystkie powyższe kwestie nie są jednak nowe – dotyczą również tradycyjnej praktyki terapeutycznej. Rzetelność, poufność, ostrożność i odpowiedzialność etyczna obowiązują każdego psychoterapeutę, niezależnie od tego, czy posługuje się AI czy też nie. Korzystanie z nowoczesnych technologii nie powinno tych zasad obniżać, a wręcz przeciwnie – musi być z nimi w pełni zgodne i osadzone w istniejących standardach etyki zawodowej. Jak w każdej sytuacji klinicznej, nie chodzi tylko o narzędzie, ale o sposób jego użycia, kompetencje osoby stosującej i transparentność wobec pacjenta.

W jaki sposób psychoterapeuci, zwłaszcza praktykujący terapię poznawczo-behawioralną, mogą skutecznie przygotować się na rosnącą obecność AI w swoim zawodzie?

Wszystko wskazuje na to, że sztuczna inteligencja pozostanie z nami i będzie coraz silniej obecna również w praktyce terapeutycznej. Dlatego kluczowe znaczenie będzie miała postawa psychoterapeutów wobec tych zmian – ich ciekawość, gotowość do uczenia się oraz aktywne poszukiwanie wiedzy i kontaktu z tym, co nowe.

Podnoszenie kompetencji w zakresie AI, rozumienie jej działania, potencjału i ograniczeń – to elementy, które w coraz większym stopniu powinny być obecne w kształceniu ustawicznym terapeutów. Nie chodzi o to, by każdy terapeuta musiał stać się specjalistą od AI, ale o to, by potrafił świadomie ocenić wartość narzędzia, które być może w przyszłości stanie się jego zawodowym wsparciem.

Szczególnie obiecujący wydaje się obszar współpracy interdyscyplinarnej – pomiędzy specjalistami zdrowia psychicznego a badaczami i inżynierami tworzącymi systemy AI. Takie współdziałanie może pozwolić na tworzenie rozwiązań, które będą lepiej dostosowane do realnych potrzeb klinicznych i zgodne z wartościami etycznymi psychoterapii.

Ważne jest, by nie uciekać od tych tematów, lecz aktywnie w nich uczestniczyć – również po to, by zadbać o to, w jaki sposób AI zostanie zaimplementowana w naszej dziedzinie. Tylko wtedy będziemy mieć wpływ na kształtowanie jej roli – jako narzędzia wspomagającego, a nie zastępującego profesjonalne kompetencje.

Jak wyobraża sobie Pani przyszłość terapii poznawczo-behawioralnej za 10–15 lat – czy sztuczna inteligencja będzie jej integralną i nieodłączną częścią?

Trudno dziś mówić o perspektywie 10–15 lat bez lekkiego przymrużenia oka, szczególnie z punktu widzenia osoby, która tak jak ja, śledzi rozwój tej technologii z ogromnym zainteresowaniem, jednak samemu pozostając zawodowo w sferze tradycyjnej psychoterapii. To horyzont, w którym technologicznie może zmienić się niemal wszystko, nie tylko nasza dziedzina. To, co dziś jest nowinką, może wówczas stać się standardem, a dzisiejsze standardy – całkowicie przestarzałe i nieadekwatne.

Sztuczna inteligencja prawdopodobnie będzie integralną częścią wielu etapów opieki psychicznej: od diagnozy, przez interwencje wspomagające, aż po ewaluację efektów terapii. Jednocześnie nie sądzę, by zastąpiła rolę terapeuty jako osoby budującej relację, dającej emocjonalne wsparcie i wrażliwie towarzyszącej pacjentowi w procesie zmiany.

W mojej wizji przyszłości AI będzie działała nie zamiast terapeuty, lecz z nim – jako narzędzie wspierające, analizujące dane, podpowiadające strategie, ale nigdy nieprzejmujące sterów. Będzie pomagać w ustrukturyzowaniu procesu, personalizacji treści psychoedukacyjnych czy identyfikacji ryzyk, ale to człowiek będzie nadawał sens tej technologii.

Kluczem będzie więc nie tyle sama technologia, ile to, czy potrafimy ją dobrze wkomponować w ramy etyczne, relacyjne i kliniczne psychoterapii.

  1. Ayers, John & Poliak, Adam & Dredze, Mark & Leas, Eric & Zhu, Zechariah & Kelley, Jessica & Faix, Dennis & Goodman, Aaron & Longhurst, Christopher & Hogarth, Michael & Smith, David. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA internal medicine. 183. 10.1001/jamainternmed.2023.1838. https://www.researchgate.net/publication/370374478_Comparing_Physician_and_Artificial_Intelligence_Chatbot_Responses_to_Patient_Questions_Posted_to_a_Public_Social_Media_Forum
  2. **Guanghui Fu, Qing Zhao, Jianqiang Li, Dan Luo, Changwei Song, Wei Zhai, Shuo Liu, Fan Wang, Yan Wang, Lijuan Cheng, Juan Zhang, Bing Xiang Yang** (2023). Enhancing psychological counseling with large language models: A multifaceted decision-support system for non-professionals. arXiv preprint arXiv:2308.15192. https://arxiv.org/abs/2308.15192
  3. Trans-CNN (model) – opisywany w kontekście wczesnych badań nad wykrywaniem depresji i zaburzeń psychicznych w: Vuyyuru, A., & Shankaranarayana, S. M. (2023). Transformer-based CNN for detecting mental illness from voice and text. (Źródło poglądowe, brak pojedynczego kanonicznego badania.)
  4. Fitzpatrick K, Darcy A, Vierhile M Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial JMIR Ment Health 2017;4(2):e19 URL: https://mental.jmir.org/2017/2/e19 DOI: 10.2196/mental.7785
  5. Tanana, M. J., Soma, C. S., Kuo, P. B., Bertagnolli, N. M., Dembe, A., Pace, B. T., Srikumar, V., Atkins, D. C., & Imel, Z. E. (2021). How do you feel? Using natural language processing to automatically rate emotion in psychotherapy. Behavior research methods, 53(5), 2069–2082. https://doi.org/10.3758/s13428-020-01531-z
  6. Fu, Guanghui & Qi, Hongzhi & Zhao, Qing & Song, Changwei & Zhai, Wei & Luo, Dan & Yu, Yi & Wang, Fan & Zou, Huijing & Yang, Bing Xiang & Li, Jianqiang. (2023). Evaluating the Efficacy of Supervised Learning vs. Large Language Models for Identifying Cognitive Distortions and Suicidal Risks in Chinese Social Media. 10.21203/rs.3.rs-3355484/v1. DOI:10.21203/rs.3.rs-3355484/v1
  7. Mohr, D. C., Zhang, M., & Schueller, S. M. (2017). Personal sensing: understanding mental health using ubiquitous sensors and machine learning. NPJ Digital Medicine, 4(1), 1–9. DOI: 10.1146/annurev-clinpsy-032816-044949
  8. Michałowski, J., Sanna, K., Karkosz, S., Szczepaniak, N., & in. (2024). Fido: chatbot wspierający terapię poznawczo-behawioralną – projekt pilotażowy Uniwersytetu SWPS. (Opis projektu na stronie uczelni: https://swps.pl)

Wywiad z ekspertem:

Jestem psycholożką, psychoterapeutką w trakcie certyfikacji w nurcie poznawczo-behawioralnym oraz terapeutką behawioralną. Prowadzę terapię osób dorosłych i młodzieży, a od ponad 10 lat pracuję także z osobami w spektrum autyzmu — to obszar, który jest mi szczególnie bliski i w którym przez lata zdobywałam praktyczne doświadczenie.

Od zawsze fascynowały mnie mechanizmy ludzkich zachowań i decyzji. Moja pasja zaczęła się jeszcze w liceum, kiedy po raz pierwszy sięgnęłam po „Wstęp do psychoanalizy” Zygmunta Freuda. Z czasem naturalnym kierunkiem okazała się dla mnie psychologia i psychoterapia.

W pracy terapeutycznej łączę techniki poznawczo-behawioralne z podejściem doświadczeniowym. Dzięki temu terapia pozwala nie tylko zrozumieć swoje myśli, emocje i zachowania, ale też realnie ich doświadczać, a następnie wprowadzać trwałe, adaptacyjne zmiany. Uważam, że analiza wzajemnych zależności między myśleniem, odczuciami i zachowaniem daje przestrzeń do głębokiego wglądu, praca behawioralna wspiera budowanie nowych nawyków, a elementy doświadczeniowe pomagają wyjść poza intelektualizowanie i dotrzeć do istoty emocji.

Ukończyłam psychologię na Uniwersytecie Kardynała Stefana Wyszyńskiego w Warszawie oraz czteroletnią szkołę psychoterapii poznawczo-behawioralnej w Centrum CBT-EDU. Uzupełniłam swoją wiedzę na studiach podyplomowych ze Stosowanej Analizy Zachowania na Uniwersytecie SWPS oraz w zakresie Wczesnej Interwencji i Pomocy Dziecku i Rodzinie w Akademii Pedagogiki Specjalnej. Posiadam Polską Licencję Terapeuty Behawioralnego (nr licencji 251/T/2019). Ukończyłam również kurs kwalifikacyjny dla nauczycieli oraz kurs terapii pedagogicznej.

Na co dzień pracuję w Ośrodku Środowiskowej Opieki Psychologicznej i Psychoterapeutycznej Dzieci i Młodzieży Centrum CBT, gdzie pełnię funkcję liderki zespołu i nadzoruję specjalistów pod względem merytorycznym i medycznym. Regularnie uczestniczę w szkoleniach oraz konferencjach dotyczących terapii i diagnostyki, a swoją pracę niezmiennie poddaję superwizji — wierzę, że rozwój terapeuty to proces, który trwa przez całe życie.