Dr M. Talarczyk: Psychoterapia a sztuczna inteligencja
Rozmawiamy z dr Małgorzatą Talarczyk, wieloletnią psychoterapeutką oraz autorką wielu książek.
- Problematyczną kwestię stanowi udział AI zwanej powszechnie sztuczną inteligencją w procesie psychoterapii. Dlaczego dopuszczenie legalności chatbotów do prowadzenia psychoterapii w Internecie jest tak kontrowersyjne?
Żeby odpowiedzieć na to pytanie musimy najpierw sięgnąć do definicji. Według Ustawy o ochronie zdrowia psychicznego, „psychoterapia to celowe i planowane oddziaływania psychologiczne służące złagodzeniu lub usunięciu objawów zaburzeń psychicznych, poprawie funkcjonowania psychicznego i społecznego, a także wspierające dążenia do zdrowia i rozwoju osób z zaburzeniami psychicznymi. Jest ona traktowana jako świadczenie zdrowotne” (1). Psychoterapia jest procesem, który składa się z etapów, a skuteczność czy efektywność psychoterapii zależy od dwóch czynników: swoistych – czyli metod i technik oraz nieswoistych – relacji terapeutycznej. W obu czynnikach ważna jest osoba terapeuty – jego wiedza, empatia, wyobraźnia, doświadczenie kliniczne, psychoterapeutyczne i życiowe. Psychoterapeutę poza merytoryką obowiązuje też etyka, zgodna z Kodeksem Etycznym Polskiego Towarzystwa Psychologicznego czy Polskiego Towarzystwa Psychiatrycznego. Od początku stosowania psychoterapii, czyli końca XIX wieku, psychoterapia jako gałąź psychologii zawsze utożsamiana była z pracą człowieka. A właściwie jest to szczególna współpraca dwojga ludzi – psychoterapeuty i pacjenta lub psychoterapeuty i rodziny. Tak zwana sztuczna inteligencja zastępuje już niektóre zawody, a prawdopodobnie będzie zastępować ich coraz więcej, bo w niektórych pracach jest szybsza i dokładniejsza, być może też tańsza. Natomiast nie choruje, nie bierze L4 ani urlopu, nie dyskutuje, nie narzeka, nie ma roszczeń co do podwyżki – chyba, że ją unowocześnią. Ale psychoterapia jak wspomniałam to szczególna relacja i forma leczenia, więc czy może ją prowadzić „urządzenie”?
Co do sztucznej inteligencji to krążą w sieci różne definicje, ale odwołam się autorytetu profesora nauk fizycznych i naukowca specjalizującego się w fizyce biomedycznej prof. Piotra Durki, wykładowcy na wydziale Fizyki Uniwersytetu Warszawskiego, który wdrożył pierwsze na świecie studia w zakresie neuroinformatyki na poziomie licencjackim. W ciekawym eseju profesor Durka dementując różne mity na temat sztucznej inteligencji mówi m.in., że „porównywanie systemów AI do mózgu jest równie sensowne jak nazywanie samolotów sztucznymi ptakami”. Profesor w profesjonalny sposób opisuje funkcjonowanie AI w eseju, który ukazał się w „Onet Wiadomości” 5 czerwca 2025 r. (2). Pozwolę sobie też przytoczyć słowa prof. Durki w rozmowie z red. Karoliną Głowacką w Radio Naukowym, które zacytowałam w niedawno opublikowanym artykule w Wydawnictwie Naukowym Silva Rerum pt. „Psychoterapia a sztuczna inteligencja” (3). W tej rozmowie prof. Piotr Durka stosuje określenia „tak zwana sztuczna inteligencja”, „uczenie maszynowe” czy „sieć sztucznych neuronów”, mówi też: „Tu jest taka sieć neuronowa, czyli to tak jak mózg, czyli ten mózg myśli, to ja go spytam co on uważa na temat sensu istnienia”. Profesor używa też określenia „żonglerka słowa” (3, 4). Natomiast Jowita Michalska, ekspertka w dziedzinie nowych technologii, podkreśla, że „sztuczna inteligencja nie rozumie pytań, które jej zadajemy. Mimo różnych prób jest modelem statystycznym, czyli ona jak zadajemy pytanie, to każdy kolejny wyraz, który pisze, nawet jeśli pisze bardzo szybko i świetnymi zdaniami, to jest cały czas obliczanie tego, jaki wyraz jest najbardziej właściwy jako następny w tym zdaniu, biorąc pod uwagę wszystko, na czym była trenowana” (5). Tak więc „żonglerka słowna”, o której mówi prof. Durka w wywiadzie, budzić może obawy i wątpliwości w kontekście czynników swoistych psychoterapii, czyli teorii oraz metod i technik terapeutycznych – czy w przyszłości twórcy modeli językowych oraz osoby powiązane z biznesem AI nie będą na masową skalę forsować tego narzędzia do pracy psychoterapeutycznej. Nasuwa się więc pytanie, czy tego typu usługi kiedykolwiek będą w pełni bezpieczne dla osób szukających pomocy psychoterapeutycznej. Z kolei co do czynników nieswoistych, czyli relacji terapeutycznej – obustronne nawiązanie jej w przypadku osoby i narzędzia nie jest możliwe. A ponieważ podkreśla się, że warunkiem efektywności każdej terapii oraz skuteczności czynników swoistych jest udział czynników nieswoistych, tego kryterium nie spełniają chatboty” (4). Natomiast esej profesora kończą słowa, szczególnie ważne dla tematu naszej rozmowy: „Nieznośna lekkość fałszowania. To już historia najnowsza, pisana przez generatywną AI. Nowością nie są fałszerstwa jako takie, tylko niemal nieograniczona dostępność niemal doskonałych narzędzi, umożliwiających tworzenie z pomocą AI niemal doskonałych fałszerstw – praktycznie dla każdego, bez wielkich nakładów czy specjalistycznej wiedzy” (2). A chatbot, jak czytamy w Internecie „to program komputerowy, który naśladuje człowieka w prowadzeniu rozmowy, pisemnej lub ustnej, podczas interakcji z użytkownikami, który udziela odpowiedzi na pytania lub pomaga rozwiązać problem. SAP (czyli systemy aplikacji tworzone i dostarczane przez firmę SAP – System Applications and Products) nie gwarantuje poprawności ani kompletności treści przetłumaczonych maszynowo” (6).
- Podkreślić tutaj należy zwłaszcza kwestię relacji budowanych z pacjentem gabinetu psychoterapeutycznego. Chatbot mimo sprawianego werbalnie wrażenia relacji i stosowania odpowiednich zwrotów i sformułowań nie jest w stanie jako maszyna takich relacji zbudować. A to przecież jedne z fundamentów terapii.
Relacja jest ważna, stanowi bazę psychoterapii, choć często sama relacja jest niewystarczająca w leczeniu wielu zaburzeń psychicznych, gdzie konieczne są odpowiednio dobrane przez terapeutę metody, dostosowane do konkretnego pacjenta i jego sytuacji zdrowotnej lub/i życiowej. Mam wieloletnie doświadczenie pracy terapeutycznej z chorymi z rozpoznaniem anoreksji, gdzie relacja w pierwszym etapie leczenia jest bardzo trudna, a przymierza terapeutycznego praktycznie nie ma. O proporcjach między relacją a metodami, które zależą od różnych czynników, m.in. osoby pacjenta, etapu terapii, rodzaju zaburzenia, itp. napisałam jakiś czas temu tekst, który udostępniłam w mediach społecznościowych (7). Chatbot może być bardzo sprawny werbalnie, dawać szybkie porady, pozorne lub doraźne „wsparcie” i tworzyć też pozory relacji, ale jak podkreśla Jowita Michalska, co jest bardzo ważne, więc powtórzę: „sztuczna inteligencja nie rozumie pytań, które jej zadajemy. Mimo różnych prób jest modelem statystycznym”, czyli gdy zadajemy jej pytanie, to każdy kolejny wyraz, który pisze, jest cały czas obliczany – jaki będzie najbardziej właściwy jako następny w zdaniu. (3,5). Poczucie „relacji” może mieć więc pacjent, a raczej klient korporacji udostępniających AI do publicznego obiegu. I to jest niebezpieczne, bo osoba korzystająca z usługi AI daje się nabierać na obustronną relację, choć nie można powiedzieć, że jest oszukiwana, bo chatbot nie ukrywa, że nie jest człowiekiem. Ale łatwość antropomorfizacji sprzętu, który mówi ładnymi słowami i złożonymi zdaniami, dającymi poczucie wsparcia, buduje zaufanie i poczucie relacji, która jest tylko po jednej stronie – czyli odbiorcy treści generowanych przez duże modele językowe.
- Już teraz działa sporo „terapeutycznych” chatbotów. A co się stanie, jeśli taki chatbot doprowadzi pacjenta do samobójstwa lub innego drastycznego czynu? Kto ponosiłby wówczas odpowiedzialność prawną?
No właśnie, to jest ważne pytanie. Psychoterapeutów obwiązują Kodeksy etyczne, a chatbot jako sprzęt jest bezkarny, ale wiadomo, że za jego pracę odpowiada człowiek, najogólniej mówiąc, są to firmy informatyczne. Media podają informację, że w Kalifornii rodzice 14-letniego syna, który popełnił samobójstwo pod wpływem ChatGPT, pozwali OpenAI. Rodzice twierdzą, że ChatGPT zachęcał ich syna do odebrania sobie życia (8). Reakcją OpenAI w mediach było zapewnienie, że „ChatGPT jest uczony, by zachęcać użytkowników do korzystania z profesjonalnej pomocy, np. linii telefonicznej dla osób mających myśli samobójcze. Przyznano jednak, że zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób” (8). Na temat zagrożeń dużo pisze dr Marcin Rządeczka w artykule „Sztuczna inteligencja w psychoterapii – komentarze eksperta” (9). Autor m.in. podaje przykład z badań, sytuacji, „w której osoba z urojeniami prześladowczymi instruowana jest jak zebrać dowody potwierdzające swoje obawy lub osoba z tendencją do antropomorfizacji urządzeń technicznych instruowana jest, by przeprosić swój stary smartfon za zaniedbywanie go” (9). Na takie i podobne absurdy narażona jest osoba korzystająca z usług ChatGPT w trudnych emocjonalnych doświadczeniach lub/i zaburzeniach psychicznych. W mojej praktyce terapeutycznej również spotykam się z sytuacjami, gdy pacjenci lub ich rodzice szukają „porady” czy wskazówek, co powiedzieć, jak postąpić, jaką podjąć decyzję itp. Na przykład, gdy dochodzi do nieporozumienia między małżonkami to jedno z nich lub oboje radzą się AI, co mówić czy zrobić albo rodzice pytają ChatGPT, jak zareagować w relacji z dzieckiem. Nietrudno sobie wyobrazić, jak bardzo deformuje to komunikację i relacje w parze czy rodzinie. Model językowy nierozumiejący pytania, nieznający kontekstu, realnych relacji, sytuacji czy stanu psychicznego uczestników zdarzenia itp. udziela „porad” ze swojej bazy słów. Ale odwoływanie się do AI jako doradcy czy eksperta nie tylko w bliskich relacjach, ale też w każdej konwersacji ma odczłowieczający charakter. Proszę sobie wyobrazić, że ja naszą rozmowę wrzucam AI do konsultacji, po czym informuję Panią, co AI „myśli”, czy „uważa” na temat Pani pytań albo Pani osoby. Przecież to dewastuje każdy międzyludzki kontakt. A takie praktyki mają miejsce, o czym dowiaduję się nie tylko w moim gabinecie, ale też w różnych środowiskach, m.in. również w mediach społecznościowych. Przyznam, że bardzo mnie to niepokoi, bo to narusza specyfikę ludzkiej komunikacji i relacji.
- AI w terapii zwłaszcza mógłby kusić młode osoby w kryzysie psychicznym. To byłoby szczególnie niebezpieczne. Wyjaśni Pani, dlaczego?
To byłoby i jest bardzo niebezpieczne, jak choćby na przykładzie wspomnianego 14-letniego chłopca z Kalifornii, który, jak twierdzą rodzice, popełnił samobójstwo konsultując się z AI. Oczywiście ta sprawa wymaga wyjaśnienia, ale tłumaczenie firmy Open AI, że „zdarzały się sytuacje, gdy nasz system w delikatnych sytuacjach nie reagował w zamierzony sposób”, raczej sugeruje, że nie odżegnują się od związku samobójstwa chłopca z pracą ich „urządzenia”. Myślę też, że nie tyle wiek osób korzystających z AI w kryzysie psychicznym jest tu decydujący, co stan psychiczny, cechy osobowe (żeby nie mówić o osobowości) czy sytuacja rodzinna i społeczna. Te cechy osobowe, unikając specjalistycznych określeń, to m.in. skłonność do magicznego myślenia, antropomorfizacji, izolowania się, zmniejszony krytycyzm czy łatwowierność itp. Natomiast sytuacja rodzinna czy społeczna, to poczucie osamotnienia czy realny brak wsparcia i samotność. Ale muszę tu zaznaczyć, że niezależnie od tych cech i sytuacji, istotne znaczenie może mieć rodzaj zburzenia, np. ciężka postać depresji, nasilone zaburzenia obsesyjno-kompulsyjne czy zaburzenia psychotyczne. Korzystanie z AI w kryzysie psychicznym może być kuszące i dawać pozorne korzyści, należą do nich m.in. nieograniczona czasowo i geograficznie dostępność czy pozorna anonimowość, a także mniejsze koszty finansowe niż korzystanie z profesjonalnej pomocy psychologicznej czy psychoterapeutycznej. Co do „anonimowości”, to tak naprawdę nie wiadomo, co dzieje się z treściami, jakie AI „wchłania” w trakcie rzekomo „pomocowych rozmów”. W realnym korzystaniu z psychoterapii, terapeuta jest zobowiązany do tajemnicy, do czego obliguje go Kodeks Etyczny, a gdyby chciał utrwalać sesję, np. ją nagrywać, to musi zapytać o zgodę osoby czy osób korzystających z psychoterapii. Natomiast gdyby chciał to nagranie komukolwiek udostępnić, np. w ramach superwizji, to musi uzyskać kolejną zgodę. Tak więc w realnym korzystaniu z psychoterapii pacjent jest chroniony, zarówno fakt, że korzysta z psychoterapii jak i treści, którymi się dzieli, objęte są tajemnicą. A co się dzieje z tym, co użytkownik „udostępnia” AI, nie wiemy. Zagrożeniem mogą być nie tylko nieadekwatne interwencje, ale także uzależnienie od chatbotów „terapeutycznych”, czemu sprzyja m.in. stała dostępność, ignorowanie przez użytkowników ostrzeżeń, że chatboty nie są profesjonalnymi terapeutami. Ponad to chatboty interpretują informacje w sposób dosłowny, mogą nie wykrywać ukrytych problemów emocjonalnych i w sposób niezamierzony wzmacniać nieprawidłowy sposób myślenia czy interpretację rzeczywistości. Poza tym, na co zwraca uwagę prof. Alexandra Przegalińska, wykładowczyni i badaczka sztucznej inteligencji „ChatGPT i wszystkie inne narzędzia podobnego typu, są narzędziami asystenckimi, tzn., że one zawsze nas będą traktować, użytkownika, który z nimi rozmawia, że ma rację, dla którego, pod którego wszystko ma być ustawione (…)” (10). Tego typu „rady” czy „porady” niestety zniekształcają percepcje relacji, swojej sytuacji czy otaczającej rzeczywistości. A z tego co obserwuję, to nawet gdy ChatGPT „wypowiada się” w sposób, w którym sugeruje, że użytkownik miałby coś zmienić, to robi to w takiej formie, żeby użytkownik i tak był zadowolony. Tak więc to wszystko o czym wspomniałam, opierając się także na doniesieniach i wypowiedziach specjalistów zajmujących się „sztuczną inteligencją”, są to argumenty przemawiające za, moim zdaniem, sceptycyzmem co do korzystania z AI w sytuacjach szukania pomocy w problemach emocjonalnych czy zaburzeniach psychicznych.
- Jednak udziału chatbotów w życiu społecznym, w tym w udzielaniu różnych form terapii czy wsparcia słownego, bo celowo nie używam tutaj określenia – psychologicznego czy psychoterapeutycznego – nie jesteśmy w stanie wyeliminować. Internet wraz z AI to coraz potężniejsza siła i jej rozpędu nikt i nic nie powstrzyma. Jaka jest Pani rada w tym zakresie?
Znajomy psychiatra i psychoterapeuta po przeczytaniu mojego artykułu pt. „Psychoterapia a sztuczna inteligencja”, napisał mi, że wysoko stawiam porzeczkę sztucznej inteligencji, na co odpowiedziałam, że to nie jest poprzeczka – to jest szlaban. Bo faktycznie tak uważam. Ale oczywiście AI prężnie się rozwija, jej pomoc jest też bardzo cenna w różnych dziedzinach nauki i życia. Szczególnie cenne jest zastosowanie AI w medycynie, ale w psychoterapeutycznym leczeniu zaburzeń psychicznych, z powodu wymienionych wcześniej zagrożeń, ja udziału AI nie chciałabym widzieć. To co obecnie środowisko psychoterapeutów mogłoby zrobić dla dobra pacjentów i w ochronie zawodu, to w trwających pracach nad Ustawą o zawodzie psychoterapeuty, zadbać legislacyjnie, aby wykonywanie zawodu czy świadczenie psychoterapii było zastrzeżone dla psychoterapeuty – człowieka. Wówczas usługi świadczone przez AI nie mogłyby być nazywane psychoterapią. A to wbrew pozorom już znaczący krok zabezpieczający potencjalnych użytkowników. Usługi świadczone przez AI nie mogą też być określane „wsparciem psychologicznym”, które jest składową „pomocy psychologicznej”, bo o to już wcześniej zadbało Polskie Towarzystwo Psychologiczne, zastrzegając, że jest to ustawowo zapisana kompetencja zawodu psychologa (11). Gdyby w pracach nad Ustawą o zawodzie psychoterapeuty, zadbano teraz legislacyjnie o zastrzeżenie określenia „psychoterapia” dla pracy świadczonej przez człowieka, to usługi AI musiałyby inaczej być nazywane np. „pomoc świadczona przez ChatGPT”, co mogłoby utrudniać antropomorfizację AI. Ale czy aktualnie środowisko zadba o to, przyznam, że mam wątpliwości, choć w dyskusjach wiele uwagi poświęcone jest wykształceniu bazowemu, osobom, które mogłyby kształcić się w dziedzinie psychoterapii, to o wykształcenie AI nikt nie pyta. Wdrażaniem modeli językowych do świadczenia „psychoterapii” zainteresowany jeden z nurtów psychoterapeutycznych zaangażowany w prace nad Ustawą. Mogłoby się to więc wpisywać w konflikt interesów? Tym nurtem, o czym pisze w swoim artykule dr Rządeczka, jest podejście poznawczo-behawioralne (CBT) (9). Tak więc nie zatrzymamy rozpędzonej naukowo i biznesowo AI, ale możemy modelom językowym „postawić szlaban” na leczenie metodą psychoterapii, o ile moje nie tyle „rady”, co sugestie, zostaną wzięte pod uwagę i wygra wizja przyszłości. Zwracam na to uwagę w trosce o standardy psychoterapii i bezpieczeństwo osób z niej korzystających. I oby nie spełniło się przysłowie „gdzie dwóch się bije, tam trzeci korzysta”, tym trzecim będzie narzędzie, jakim jest tzw. sztuczna inteligencja.
Dziękuję za rozmowę.
Pytania zadawała PM. Wiśniewska
Źródła
- https://pacjent.gov.pl/artykul/psychoterapia
- Durka P. https://wiadomosci.onet.pl/nauka/porownywanie-systemow-ai-do-mozgu-jest-rownie-sensowne-jak-nazywanie-samolotow/t344vn1 (pobrano: 11.10.2025)
- Durka P. Nie wierzmy w baśnie o sztucznej inteligencji. Radio Naukowe https://www.youtube.com/watch?v=kgl5UiIK0sc (pobrano 23.09.2025)
- Talarczyk M. Psychoterapia a sztuczna inteligencja. https://wydawnictwo-silvarerum.eu/dr-m-talarczyk-psychoterapia-a-sztuczna-inteligencja/?fbclid=IwY2xjawNYtKxleHRuA2FlbQIxMQABHoXMSaP2nXGCuRv4DvFbsx2xip2-h2EkqlBqWdvbMu23_j0y49fisTLZ5r-T_aem_4AMcISiVptDLdrKqhAzi6w
- Michalska J. Podcast Jestem kobietą https://www.facebook.com/reel/1500003738083271 (pobrano 3.09.2025)
- SAP https://www.sap.com/poland/resources/ai-in-manufacturing (pobrano: 10.10.2025)
- Talarczyk – Psychoterapia – kwestia proporcji https://www.facebook.com/permalink.php?story_fbid=pfbid0216znbZqnBLK2gcHo9VSoC69d7tc1bBFxsH2ADeA95dqQKzgQecxkmLjdjJLKWWiml&id=100009879166502 (pobrano 10.2025)
- Open AI https://www.pap.pl/aktualnosci/openai-pozwane-przez-rodzicow-nastolatka-chlopiec-mial-popelnic-samobojstwo-pod-wplywem?fbclid=IwY2xjawNYtadleHRuA2FlbQIxMQABHn7gvYxsUXFt2ZWIBcj620MiT7p_5NfjuDSYxgDBt0PRvuLM6o5RdQyhUUVL_aem_AdZ5VWc-_N5tIKIFHaRkDw (pobrano: 10.10.2025)
- Rządeczka M. Sztuczna inteligencja w psychoterapii – komentarz eksperta. Centrum Prasowe UMCS: Luty 2025. (pobrano 10.08.2025)
- Przegalińska A. https://www.facebook.com/reel/1518604495801757 (pobrano: 12.10.2025)
- Polskie Towarzystwo Psychologiczne. Oświadczenie w sprawie nazewnictwa w obszarze pierwszej pomocy psychologicznej. https://psych.org.pl/fileadmin/user-files/Dla_psychologow/Oswiadczenie_w_sprawie_nazewnictwa_w_obszarze_pierwszej_pomocy_psychospolecznej.pdf (pobrano 6.08.2025)



