LifestyleZdrowie

Zamiast psychologa wybierają ChatGPT. Eksperci alarmują

Kiedy dopada nas lęk, bezsenność, samotność albo kryzys w związku, coraz częściej otwieramy telefon i zaczynamy pisać z AI. Chatbot odpowiada natychmiast. Może sprawiać wrażenie uważnego i empatycznego rozmówcy. Eksperci ostrzegają jednak, że sztuczna inteligencja nie jest terapeutą i nie powinna zastępować profesjonalnej pomocy psychologicznej.

Coraz więcej osób szuka wsparcia u AI

To, że ludzie zaczęli szukać wsparcia psychicznego u chatbotów, nie wzięło się znikąd. Skala problemu jest ogromna. Według WHO w 2021 roku z zaburzeniami psychicznymi żyło na świecie około 1,1 mld ludzi, czyli niemal 1 na 7 osób. Jednocześnie wiele osób nadal nie ma dostępu do skutecznej pomocy – w krajach o niskich dochodach leczenie otrzymuje mniej niż 10 proc. potrzebujących.

Dodatkowo WHO wskazuje, że w pierwszym roku pandemii COVID-19 liczba przypadków depresji i zaburzeń lękowych wzrosła o około 25 proc.

Właśnie w tę lukę weszła sztuczna inteligencja. Działa przez całą dobę, odpowiada natychmiast i jest łatwo dostępna. Analizy pokazują też, że rozmowy o emocjach stały się jednym z popularnych zastosowań generatywnej AI. W analizie opublikowanej w „Harvard Business Review” w 2025 roku kategorie takie jak „therapy and companionship” znalazły się wśród częstych sposobów używania AI. O tym trendzie pisały także media, m.in. „The Independent” i „Fortune”.

Dlaczego wolimy pisać z chatbotem niż udać się do specjalisty

Powody są proste. Rozmowa z AI nie wymaga telefonu do poradni, czekania na termin ani mówienia na głos o sprawach wstydliwych i bardzo osobistych. Dla wielu osób chatbot wydaje się też bardziej cierpliwym rozmówcą niż ludzie z najbliższego otoczenia.

W praktyce AI często staje się pierwszym miejscem, do którego ktoś trafia z myślami o wypaleniu, lęku, samotności czy przeciążeniu psychicznym. Media zwracają uwagę, że rośnie liczba osób traktujących ChatGPT jako darmowego „terapeutę na żądanie”, szczególnie wśród młodszych użytkowników.

W takiej sytuacji łatwo uwierzyć, że skoro chatbot pomaga się uspokoić, uporządkować myśli czy podsuwa ćwiczenia oddechowe, może zastąpić psychologa. Specjaliści podkreślają jednak, że właśnie tu zaczyna się poważne nieporozumienie.

Chatbot może pomóc, ale to nie to samo co terapia

Warto rozróżnić dwie rzeczy: wsparcie informacyjne i psychoterapię. Sztuczna inteligencja może pomóc nazwać emocje, uporządkować myśli czy zaproponować proste techniki radzenia sobie ze stresem, na przykład prowadzenie dziennika uczuć. Może też wyjaśnić podstawowe pojęcia psychologiczne, takie jak różnica między stresem a lękiem czy czym są ruminacje (uporczywe, powtarzające się myśli).

Tego typu wsparcie bywa pomocne, zwłaszcza przy łagodniejszych trudnościach lub jako uzupełnienie terapii. Niektórzy klinicyści dopuszczają więc wykorzystanie AI jako narzędzia wspierającego, ale nie jako zamiennika kontaktu z terapeutą.

Psychoterapia nie polega jednak na tym, że ktoś po drugiej stronie po prostu odpisuje. To proces kliniczny oparty na relacji, wywiadzie, rozumieniu kontekstu życia pacjenta, obserwacji zmian, a czasem także na rozpoznaniu sygnałów alarmowych, których sam pacjent nie zauważa albo nie umie nazwać. Tego chatbot nie robi tak jak specjalista. Nie zna całej historii, nie widzi sposobu reagowania, nie słyszy tonu głosu, nie wychwytuje niuansów relacyjnych i nie ponosi odpowiedzialności zawodowej za to, co sugeruje.

Co mówią eksperci i instytucje

Stanowisko wielu instytucji jest dziś raczej ostrożne. American Psychological Association (APA) podkreśla, że generatywne chatboty nie zostały stworzone do świadczenia opieki psychologicznej i nie powinny być traktowane jako narzędzia terapii czy leczenia zaburzeń psychicznych.

Podobne stanowisko prezentuje amerykańska Agencja Żywności i Leków (FDA). Choć dopuściła już ponad 1200 urządzeń medycznych wykorzystujących AI, żadne z nich nie zostało autoryzowane jako generatywny chatbot do leczenia zaburzeń psychicznych. FDA zwraca też uwagę, że takie systemy mogą generować błędne lub nieadekwatne informacje i nie powinny być traktowane jak zweryfikowane narzędzia medyczne.

Eksperci z Arizona State University, m.in. psycholog Matthew Meier, podkreślają, że chatboty AI mogą być co najwyżej wsparciem, ale nie zastępują psychoterapii prowadzonej przez specjalistę.

Jest badanie, które pokazało korzyści. Ale to nie zamyka dyskusji

Warto podkreślić, że nauka nie postrzega sztucznej inteligencji wyłącznie jako zagrożenia. W marcu 2025 roku na łamach czasopisma NEJM AI opublikowano wyniki randomizowanego badania klinicznego zespołu z Dartmouth College dotyczącego generatywnego chatbota terapeutycznego o nazwie Therabot. Badanie wykazało, że korzystanie z tego narzędzia wiązało się ze zmniejszeniem nasilenia objawów u osób z depresją, uogólnionym zaburzeniem lękowym oraz podwyższonym ryzykiem zaburzeń odżywiania.

Autorzy podkreślili, że wyniki te wskazują na potencjał dobrze zaprojektowanych narzędzi opartych na AI jako elementu wspierającego opiekę nad zdrowiem psychicznym.

Nie oznacza to jednak, że wyniki tego badania pozwalają stwierdzić, iż chatboty mogą zastąpić psychologa. Dotyczyło ono konkretnego narzędzia badawczego, zaprojektowanego i kontrolowanego w ramach projektu naukowego, a nie ogólnych chatbotów używanych na co dzień przez miliony użytkowników.

Po drugie, eksperci podkreślają, że obecny stan badań nad wykorzystaniem AI w psychoterapii jest wciąż wczesny. Komentatorzy na łamach „The Lancet Digital Health” zwracają uwagę, że dostępne dowody naukowe nie uzasadniają jeszcze traktowania chatbotów jako samodzielnych interwencji terapeutycznych (standalone interventions). Podkreślają także potrzebę bardziej rygorystycznych badań klinicznych obejmujących większe grupy pacjentów i dłuższy okres obserwacji.

Oznacza to, że choć pierwsze wyniki badań nad narzędziami opartymi na AI są obiecujące, nie stanowią jeszcze podstawy do zastąpienia tradycyjnej psychoterapii rozmową z chatbotem.

Największy problem zaczyna się wtedy, gdy człowiek przestaje szukać realnej pomocy

Sam kontakt z chatbotem nie jest największym problemem. Ryzyko pojawia się dopiero wtedy, gdy osoby z nasilonymi objawami zaczynają polegać na AI jako głównym lub jedynym źródle pomocy.

W takiej sytuacji mogą pojawić się bardzo konkretne zagrożenia:

  • opóźnienie diagnozy depresji, zaburzeń lękowych albo zaburzeń odżywiania
  • błędna samoocena stanu psychicznego
  • zbyt szybkie uspokojenie się po pozornie „mądrej” odpowiedzi
  • unikanie kontaktu z psychologiem lub psychiatrą
  • przywiązanie emocjonalne do narzędzia, które tylko symuluje troskę

Chatbot to nie psycholog

AI może być pomocna. Może pomóc nazwać to, co czujesz i podsunąć pytania do autorefleksji. Może zaproponować ćwiczenie oddechowe, pomóc przygotować się do wizyty czy uporządkować myśli po trudnym dniu.

Nie oznacza to jednak, że chatboty mogą zastąpić psychologa. Dotychczasowe badania sugerują raczej coś innego: sztuczna inteligencja może pełnić rolę narzędzia wspierającego, ale wciąż nie jest bezpiecznym zamiennikiem terapii.

Takie stanowisko prezentują m.in. American Psychological Association (APA), amerykańska Agencja Żywności i Leków (FDA) oraz wielu ekspertów zajmujących się zdrowiem psychicznym.

Najważniejszy wniosek

Jeśli od dłuższego czasu czujesz się źle i łatwiej jest Ci napisać do AI niż porozmawiać z drugim człowiekiem, warto powiedzieć to wprost: rozmowa z chatbotem może na chwilę przynieść ulgę i sprawić, że poczujesz się mniej samotnie. Nie zastąpi jednak prawdziwej pomocy ani wsparcia specjalisty, który naprawdę bierze odpowiedzialność za zdrowie psychiczne pacjenta. Wniosek jest prosty: AI może być początkiem szukania pomocy, ale nie powinna zastępować realnego wsparcia specjalisty.

Źródła:

  • World Health Organization (WHO)Mental disorders (fact sheet, aktualizacje 2023–2024)
  • World Health Organization (WHO)Mental Health: Strengthening Our Response
  • National Institute of Mental Health (NIMH)Mental Illness Statistics, United States 2022
  • American Psychological Association (APA)Use of Generative AI Chatbots and Wellness Apps for Mental Health (2024)
  • U.S. Food and Drug Administration (FDA)Artificial Intelligence-Enabled Digital Mental Health Technologies (2025)
  • NEJM AIRandomized Trial of a Generative AI Chatbot for Mental Health Treatment (Dartmouth College, 2025)
  • The Lancet Digital Health – komentarz ekspercki o roli i odpowiedzialności AI w zdrowiu psychicznym (2025)
  • Arizona State University NewsPsychologist Urges Caution When Turning to AI for Emotional Support (2025)
  • Harvard Business Review – Marc Zao-Sanders, How People Are Really Using Gen AI in 2025
  • The Independent – artykuły o rosnącym trendzie wykorzystywania chatbotów AI jako wsparcia emocjonalnego
  • Fortune – analizy dotyczące „AI therapy” i wykorzystania chatbotów w zdrowiu psychicznym (2025)

Ten artykuł ma charakter wyłącznie informacyjny i edukacyjny. Nie stanowi porady medycznej ani psychologicznej i nie zastępuje konsultacji z psychologiem, psychiatrą lub innym wykwalifikowanym specjalistą zdrowia psychicznego. Jeśli doświadczasz silnego stresu, długotrwałego obniżonego nastroju, lęku, bezsenności lub innych trudności psychicznych, warto skonsultować się z profesjonalistą. W sytuacji nagłego kryzysu psychicznego należy jak najszybciej skontaktować się z lekarzem, lokalną pomocą kryzysową lub numerem alarmowym.

Podziel się wpisem:

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Nie możesz kopiować zawartości tej strony