Między empatią algorytmu a ludzkim kontaktem: refleksje nad rolą sztucznej inteligencji w CBT

Marta Rokicińska

Między empatią algorytmu a ludzkim kontaktem refleksje nad rolą sztucznej inteligencji w CBT

Rozwój technologii opartych na sztucznej inteligencji (AI) w ostatnich latach wywołuje ogromne zainteresowanie w wielu obszarach życia – nie omija to również psychoterapii. Szczególnie w terapii poznawczo-behawioralnej (CBT), której struktura i protokoły wydają się dobrze korespondować z logiką algorytmiczną, AI znajduje coraz więcej zastosowań: od chatbotów wspierających samopomoc po narzędzia do obiektywnej analizy skuteczności leczenia. Równocześnie jednak pojawiają się liczne pytania: na ile technologia może rzeczywiście wspierać proces terapeutyczny, a na ile grozi jego spłyceniem? Czy relacja terapeutyczna – kluczowy element skutecznej terapii – może przetrwać obecność algorytmu?

O potencjalnych korzyściach, zagrożeniach i kierunkach rozwoju AI w obszarze zdrowia psychicznego rozmawiamy z psychoterapeutką pracującą w nurcie poznawczo-behawioralnym, Martą Rokicińską. To rozmowa o przyszłości, która już puka do drzwi gabinetów terapeutycznych.

Zapraszamy do lektury.

Jak postrzega Pani rosnącą obecność sztucznej inteligencji w terapii poznawczo-behawioralnej i ogólnie w obszarze zdrowia psychicznego?

Obecność sztucznej inteligencji w terapii poznawczo-behawioralnej i ogólnie w obszarze zdrowia psychicznego to nieunikniony fakt, z którym musimy się świadomie zmierzyć. AI niewątpliwie może oferować znaczący potencjał zwiększenia dostępności oraz efektywności terapii poprzez zaawansowaną analizę danych, szybką identyfikację problemów i personalizację leczenia.

Kluczowe jest jednak aktywne zaangażowanie terapeutów i instytucji zdrowia psychicznego w kształtowanie roli AI w procesie terapeutycznym. Powinno to odbywać się w sposób przemyślany, świadomy i bezpieczny, a nie być jedynie wynikiem decyzji i możliwości firm technologicznych. Ważna jest zatem edukacja oraz prowadzenie odpowiedzialnych, ale możliwie szerokich badań i testów.

Rosnąca popularność technologii AI wynika między innymi z rosnących potrzeb zdrowia psychicznego, szczególnie uwidocznionych po pandemii COVID-19, oraz coraz większej dostępności rozwiązań takich jak chatboty terapeutyczne (np. Woebot stworzony przez psychologów z Uniwersytetu Stanforda, czy Youper – asystent zdrowia psychicznego, opracowany przez startup Youper Inc., którym kieruje psychiatra dr Jose Hamilton), czy zaawansowane ogólne modele językowe, takie jak ChatGPT (OpenAI), czy Claude (Anthropic). Narzędzia tego typu potencjalnie pozwalają na interaktywną psychoedukację, wstępną diagnostykę i wsparcie procesu terapeutycznego na niespotykanym wcześniej poziomie. Aby jednak ta zmiana była korzystna, konieczne jest aktywne zaangażowanie specjalistów w projektowanie, testowanie i monitorowanie technologii AI.

Na ten moment nie da się chyba dostrzec szerokich i skoordynowanych działań w tym kierunku i nie mówię tu tylko o naszym rodzimym podwórku. Istnieją oczywiście badania o ograniczonym zasięgu, także w Polsce, a terapeuci, którzy interesują się tematem, oddolnie próbują rozwijać swoją wiedzę w tym zakresie. Na dłuższą metę jednak może się to okazać niewystarczające.

Czy AI może stanowić realne i bezpieczne wsparcie w procesie terapeutycznym, czy raczej niesie ze sobą potencjalne zagrożenia dla relacji terapeutycznej?

Wykorzystanie AI w terapii poznawczo-behawioralnej może przynieść realne korzyści, ale niesie również potencjalne zagrożenia, których pełna skala nie jest jeszcze znana. Na przykład badanie John W. Ayers, naukowca zajmującego się zastosowaniami sztucznej inteligencji w medycynie i zdrowiu publicznym oraz jego współpracowników z University of California w San Diego (2023) wykazało, że modele językowe takie jak GPT-4 generują odpowiedzi postrzegane przez pacjentów jako bardziej empatyczne i jakościowe niż odpowiedzi samych profesjonalistów medycznych, a więc potencjalnie mogłyby efektywnie wspierać ich w konsultacjach online. Z drugiej strony jednak badania tego typu są mocno ograniczone – nie są oceniane ani długotrwałe skutki, ani wykorzystanie na zróżnicowanej próbie złożonych przypadków.

W jakich obszarach terapii poznawczo-behawioralnej AI znajduje już dziś najskuteczniejsze praktyczne zastosowania?

W związku z tym, że wykorzystanie AI w terapii poznawczo-behawioralnej nadal znajduje się głównie na etapie rozwoju badawczego, opracowywane rozwiązania nie zostały jeszcze powszechnie wdrożone do praktyki klinicznej ani zatwierdzone przez instytucje zdrowia publicznego (takie jak FDA czy EMA) jako samodzielne, pełnoprawne elementy terapii CBT. Dlatego obecnie można mówić raczej o obszarach, w których sztuczna inteligencja wykazuje największy potencjał do praktycznego zastosowania w najbliższej przyszłości.

Przykładowo, w diagnostyce, zaawansowane modele uczenia maszynowego, takie jak Trans-CNN (skrót od Transformer i Convolutional Neural Network), wykazały obiecujące wyniki w badaniach pilotażowych dotyczących rozpoznawania zaburzeń takich jak depresja, lęki czy schizofrenia poprzez analizę danych tekstowych i głosowych pacjentów. Choć wyniki są zachęcające, obecnie większość tych rozwiązań pozostaje na etapie testowym i nie została jeszcze szeroko wdrożona w praktyce klinicznej.

W obszarze psychoedukacji, chatboty takie jak Woebot czy Wysa mogą dostarczać spersonalizowane treści edukacyjne i mogą pomagać pacjentom zrozumieć podstawowe zasady CBT oraz sposoby radzenia sobie z objawami. Woebot, choć jest jednym z najlepiej przebadanych rozwiązań (badanie Kathleen M. Fitzpatrick pod tytułem „Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial”, 2017 Stanford University), nadal znajduje się głównie w fazie testowania i nie jest szeroko przyjęty w codziennej praktyce klinicznej. Specjaliści doceniają jego potencjał jako narzędzia wspomagającego, ale podkreślają konieczność dalszych, niezależnych badań potwierdzających jego długofalową skuteczność i bezpieczeństwo stosowania. Trzeba jednak wskazać, że właśnie Woebot oraz Wysa otrzymały tzw. „Breakthrough Device Designation” (oznaczenie jako “urządzenie przełomowe”) od FDA. Woebot Health dla leczenia depresji poporodowej, Wysa dla przewlekłego bólu i współistniejącej depresji/lęku. Można to uznać za pierwszy krok w stronę oficjalnego wdrożenia i rejestracji jako narzędzia do stosowania w praktyce klinicznej.

AI może być także wykorzystywana do wykrywania kryzysów psychicznych poprzez analizę danych zbieranych z aplikacji mobilnych i urządzeń wearable, co teoretycznie pozwala na monitorowanie stanu emocjonalnego pacjentów w czasie rzeczywistym oraz wczesne interwencje w sytuacjach kryzysowych. Istnieją także narzędzia, takie jak aplikacja MindWatch, która wykorzystuje duże modele językowe do personalizacji psychoedukacji i wsparcia samopomocy, zwiększając efektywność terapii i zaangażowanie pacjentów.

Jak ocenia Pani wartość dedykowanych narzędzi AI, takich jak chatboty terapeutyczne lub aplikacje do CBT wspierające samopomoc?

Jako psychoterapeutka pracująca w nurcie poznawczo-behawioralnym, na co dzień nie korzystam z narzędzi opartych na sztucznej inteligencji, które jak już wiemy, nie posiadają oficjalnych rekomendacji do takich zastosowań. Interesuję się jednak tym zagadnieniem i znam od podstaw podejście klasyczne. Wiem, jak wymagające może być zarówno prowadzenie procesu terapeutycznego oraz zapewnienie pacjentowi ciągłości i dostępności wsparcia. W tym kontekście widzę potencjalną wartość narzędzi, takich jak Woebot, Youper czy Fido (eksperymentalny, polski projekt cyfrowego asystenta terapeutycznego, opracowany na SWPS) – o ile potraktujemy je nie jako zamiennik relacji terapeutycznej, lecz jako formę uzupełnienia i wsparcia między sesjami. Mogą potencjalnie pomóc pacjentowi w utrwalaniu materiału, wykonywaniu zadań domowych czy obserwacji emocji i myśli w czasie rzeczywistym.

Ciekawym tematem jest porównanie dedykowanych chatbotów z ogólnymi modelami językowymi, takimi jak ChatGPT czy Claude. Te ostatnie są niewątpliwie bardziej elastyczne, mają dostęp do szerszego kontekstu i potrafią formułować odpowiedzi w sposób bardziej spersonalizowany, co może być odbierane jako przejaw empatii. Jednak to właśnie chatboty, zaprojektowane specjalnie do wsparcia w zakresie zdrowia psychicznego (np. Woebot), bazują na protokołach terapeutycznych i zostały opracowane z myślą o konkretnych zastosowaniach klinicznych. W praktyce, z mojego punktu widzenia, dedykowane narzędzia będą prawdopodobnie bezpieczniejsze i bardziej przewidywalne. Ogólne modele natomiast, biorąc pod uwagę ich nieustający rozwój oraz zakładając wdrożenie jakiegoś mechanizmu nadzoru, mogłyby zapewne oferować większe możliwości personalizacji i interwencji w czasie rzeczywistym.

Kluczem może być więc nie wybór jednej technologii, ale refleksja nad tym, jak możemy je integrować w sposób, który wspiera proces terapii bez jego uproszczenia czy komercjalizacji.

Jakie konkretne korzyści może przynieść sztuczna inteligencja w obiektywnej diagnostyce zaburzeń psychicznych oraz ocenie efektów terapii CBT?

Jednym z potencjalnych obszarów wykorzystania AI w terapii poznawczo-behawioralnej jest obiektywna ocena efektów terapii. W tradycyjnym podejściu opieramy się głównie na samoopisach pacjenta oraz obserwacjach terapeuty, które choć cenne, bywają subiektywne i podatne na różnego rodzaju błędy poznawcze, czy też zwykłe pomyłki.

Sztuczna inteligencja, szczególnie narzędzia oparte na analizie języka naturalnego i uczeniu maszynowym, może wspierać ten proces poprzez identyfikację wzorców językowych świadczących o zmianach w nastroju, sposobie myślenia czy natężeniu objawów. Przykładowo, badanie Micah I. Tanana z University of Utah i jego współpracowników (2021) pokazało, że automatyczna analiza zapisu sesji może przewidywać zgodność terapeuty z protokołem CBT i jest skorelowana z efektywnością leczenia. Inne badania (np. Hongzhi Qi i inni (2023), Evaluating the efficacy of supervised learning vs large language models for identifying cognitive distortions and suicidal risks in Chinese social media.), sugerują, że AI może wspierać wykrywanie zniekształceń poznawczych w wypowiedziach pacjenta, co stanowi podstawę do oceny postępów w restrukturyzacji poznawczej.

Choć te możliwości są obiecujące, należy podkreślić, że większość badań znajduje się nadal na etapie walidacji, a systemy nie są jeszcze powszechnie wdrożone w praktyce klinicznej. Równocześnie pojawiają się pytania o rzetelność algorytmów, ich przejrzystość i odporność na błędy kontekstowe. Dlatego AI może w przyszłości wspierać terapeutów w monitorowaniu efektów terapii, ale nie powinna – przynajmniej na obecnym etapie – zastępować profesjonalnego osądu klinicznego.

***

  1. Ayers, John & Poliak, Adam & Dredze, Mark & Leas, Eric & Zhu, Zechariah & Kelley, Jessica & Faix, Dennis & Goodman, Aaron & Longhurst, Christopher & Hogarth, Michael & Smith, David. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA internal medicine. 183. 10.1001/jamainternmed.2023.1838. https://www.researchgate.net/publication/370374478_Comparing_Physician_and_Artificial_Intelligence_Chatbot_Responses_to_Patient_Questions_Posted_to_a_Public_Social_Media_Forum
  2. **Guanghui Fu, Qing Zhao, Jianqiang Li, Dan Luo, Changwei Song, Wei Zhai, Shuo Liu, Fan Wang, Yan Wang, Lijuan Cheng, Juan Zhang, Bing Xiang Yang** (2023). Enhancing psychological counseling with large language models: A multifaceted decision-support system for non-professionals. arXiv preprint arXiv:2308.15192. https://arxiv.org/abs/2308.15192
  3. Trans-CNN (model) – opisywany w kontekście wczesnych badań nad wykrywaniem depresji i zaburzeń psychicznych w: Vuyyuru, A., & Shankaranarayana, S. M. (2023). Transformer-based CNN for detecting mental illness from voice and text. (Źródło poglądowe, brak pojedynczego kanonicznego badania.)
  4. Fitzpatrick K, Darcy A, Vierhile M Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial JMIR Ment Health 2017;4(2):e19 URL: https://mental.jmir.org/2017/2/e19 DOI: 10.2196/mental.7785
  5. Tanana, M. J., Soma, C. S., Kuo, P. B., Bertagnolli, N. M., Dembe, A., Pace, B. T., Srikumar, V., Atkins, D. C., & Imel, Z. E. (2021). How do you feel? Using natural language processing to automatically rate emotion in psychotherapy. Behavior research methods, 53(5), 2069–2082. https://doi.org/10.3758/s13428-020-01531-z
  6. Fu, Guanghui & Qi, Hongzhi & Zhao, Qing & Song, Changwei & Zhai, Wei & Luo, Dan & Yu, Yi & Wang, Fan & Zou, Huijing & Yang, Bing Xiang & Li, Jianqiang. (2023). Evaluating the Efficacy of Supervised Learning vs. Large Language Models for Identifying Cognitive Distortions and Suicidal Risks in Chinese Social Media. 10.21203/rs.3.rs-3355484/v1. DOI:10.21203/rs.3.rs-3355484/v1
  7. Mohr, D. C., Zhang, M., & Schueller, S. M. (2017). Personal sensing: understanding mental health using ubiquitous sensors and machine learning. NPJ Digital Medicine, 4(1), 1–9. DOI: 10.1146/annurev-clinpsy-032816-044949
  8. Michałowski, J., Sanna, K., Karkosz, S., Szczepaniak, N., & in. (2024). Fido: chatbot wspierający terapię poznawczo-behawioralną – projekt pilotażowy Uniwersytetu SWPS. (Opis projektu na stronie uczelni: https://swps.pl)

Wywiad z ekspertem:

Jestem psycholożką, psychoterapeutką w trakcie certyfikacji w nurcie poznawczo-behawioralnym oraz terapeutką behawioralną. Prowadzę terapię osób dorosłych i młodzieży, a od ponad 10 lat pracuję także z osobami w spektrum autyzmu — to obszar, który jest mi szczególnie bliski i w którym przez lata zdobywałam praktyczne doświadczenie.

Od zawsze fascynowały mnie mechanizmy ludzkich zachowań i decyzji. Moja pasja zaczęła się jeszcze w liceum, kiedy po raz pierwszy sięgnęłam po „Wstęp do psychoanalizy” Zygmunta Freuda. Z czasem naturalnym kierunkiem okazała się dla mnie psychologia i psychoterapia.

W pracy terapeutycznej łączę techniki poznawczo-behawioralne z podejściem doświadczeniowym. Dzięki temu terapia pozwala nie tylko zrozumieć swoje myśli, emocje i zachowania, ale też realnie ich doświadczać, a następnie wprowadzać trwałe, adaptacyjne zmiany. Uważam, że analiza wzajemnych zależności między myśleniem, odczuciami i zachowaniem daje przestrzeń do głębokiego wglądu, praca behawioralna wspiera budowanie nowych nawyków, a elementy doświadczeniowe pomagają wyjść poza intelektualizowanie i dotrzeć do istoty emocji.

Ukończyłam psychologię na Uniwersytecie Kardynała Stefana Wyszyńskiego w Warszawie oraz czteroletnią szkołę psychoterapii poznawczo-behawioralnej w Centrum CBT-EDU. Uzupełniłam swoją wiedzę na studiach podyplomowych ze Stosowanej Analizy Zachowania na Uniwersytecie SWPS oraz w zakresie Wczesnej Interwencji i Pomocy Dziecku i Rodzinie w Akademii Pedagogiki Specjalnej. Posiadam Polską Licencję Terapeuty Behawioralnego (nr licencji 251/T/2019). Ukończyłam również kurs kwalifikacyjny dla nauczycieli oraz kurs terapii pedagogicznej.

Na co dzień pracuję w Ośrodku Środowiskowej Opieki Psychologicznej i Psychoterapeutycznej Dzieci i Młodzieży Centrum CBT, gdzie pełnię funkcję liderki zespołu i nadzoruję specjalistów pod względem merytorycznym i medycznym. Regularnie uczestniczę w szkoleniach oraz konferencjach dotyczących terapii i diagnostyki, a swoją pracę niezmiennie poddaję superwizji — wierzę, że rozwój terapeuty to proces, który trwa przez całe życie.