Jak ChatGPT i Gemini zmieniają nasze emocje, relacje i poczucie bycia wysłuchanym. Czy sztuczna inteligencja może zastąpić psychologa?
Sztuczna inteligencja (AI) coraz mocniej wkracza w nasze życie. Jedni traktują ją jako praktyczne narzędzie pracy, inni – jako źródło rozrywki. Ale coraz częściej pojawia się pytanie: czy AI może stać się wsparciem psychologicznym? A może nawet… substytutem relacji z drugim człowiekiem?
Jako psycholog przyglądam się temu zjawisku nie tylko z perspektywy technologii, ale też psychiki człowieka. I to, co widzę, jest jednocześnie fascynujące i niepokojące.

🧠 Co mówią badania o chatbotach w psychologii?
Coraz więcej badań pokazuje, że sztuczna inteligencja ma realny potencjał we wspieraniu zdrowia psychicznego. To już nie tylko ciekawostka technologiczna, ale obszar, który zaczyna być traktowany poważnie przez naukowców i praktyków psychologii.
Jednym z najbardziej znanych przykładów jest Woebot – chatbot oparty na technikach terapii poznawczo-behawioralnej (CBT). Już w 2017 roku przeprowadzono randomizowane badanie kliniczne, które pokazało, że dwutygodniowa interakcja z Woebotem zmniejsza objawy depresji u studentów w porównaniu do grupy kontrolnej, która otrzymała jedynie materiały psychoedukacyjne. Późniejsze prace potwierdzały skuteczność tego narzędzia również w innych grupach, np. u kobiet po porodzie czy osób z problemami związanymi z używaniem substancji.
Podobne wyniki uzyskał inny chatbot – Wysa. W badaniach z udziałem osób z chorobami przewlekłymi, takimi jak cukrzyca czy artretyzm, regularne korzystanie z aplikacji prowadziło do spadku objawów depresji i lęku już po czterech tygodniach. Wysa jest też testowana w systemie opieki zdrowotnej w Wielkiej Brytanii (NHS), co pokazuje, że tego typu rozwiązania zaczynają być traktowane poważnie również w kontekście klinicznym.
Równie obiecujące są wyniki pierwszego randomizowanego badania klinicznego przeprowadzonego w 2025 roku na Dartmouth College w USA. Naukowcy sprawdzali skuteczność generatywnego chatbota opartego na sztucznej inteligencji (tzw. Therabot) w pracy z osobami doświadczającymi objawów depresji, lęku czy zaburzeń odżywiania. Wyniki były wyraźnie pozytywne – uczestnicy zgłaszali znaczną poprawę nastroju i redukcję objawów, a wielu podkreślało, że rozmowa z chatbotem przypominała im kontakt z terapeutą. To badanie jest ważnym kamieniem milowym – pokazuje, że chatboty oparte na dużych modelach językowych mogą być czymś więcej niż tylko ciekawostką i faktycznie wspierać osoby w kryzysie psychicznym.
Także w Polsce podejmowane są ambitne próby wykorzystania AI w psychologii. Uniwersytet SWPS prowadzi projekt badawczy, w którym chatbot ma wspierać terapię poznawczo-behawioralną, pomagając użytkownikom rozpoznawać i korygować zniekształcenia poznawcze – czyli typowe pułapki myślowe, takie jak katastrofizowanie czy myślenie czarno-białe. To ogromny krok w stronę narzędzi, które nie tylko słuchają, ale też aktywnie uczą bardziej konstruktywnego patrzenia na emocje i zachowania.
Na polskim rynku działa również startup MindMatch, który tworzy system analizujący tekst użytkownika pod kątem objawów psychicznych i pomagający dopasować odpowiedniego specjalistę. To nie jest projekt SWPS – to osobna inicjatywa – ale warto zauważyć, że podobne idee rozwijane są równolegle zarówno w środowisku akademickim, jak i biznesowym. Razem pokazują, że w Polsce rośnie zainteresowanie wykorzystaniem AI w obszarze psychologii i zdrowia psychicznego.
👉 Wniosek? Badania z całego świata – od USA, przez Wielką Brytanię, aż po Polskę – jasno pokazują, że chatboty oparte na sztucznej inteligencji mogą być realnym wsparciem w psychologii. Mogą obniżać poziom lęku, poprawiać nastrój i wspierać proces zmiany myślenia. Nie oznacza to jednak, że zastąpią psychoterapeutę – raczej stają się wartościowym uzupełnieniem, szczególnie tam, gdzie dostęp do pomocy psychologicznej jest ograniczony.
🔄 Efekt „odbicia emocji” – pomoc czy ryzyko?
Jednym z ciekawszych zjawisk w interakcjach z chatbotami jest tzw. efekt odbicia emocji. Modele takie jak ChatGPT czy Gemini uczą się dopasowywać do tonu rozmówcy. Jeśli piszesz w sposób spokojny i wyważony, odpowiedź będzie równie stonowana. Ale jeśli wnosisz do rozmowy silny niepokój, lęk czy zdenerwowanie – sztuczna inteligencja bardzo często podąży za tym tonem.
Z jednej strony może to działać kojąco. Widzimy, że nasze emocje zostały „odczytane”, czujemy się wysłuchani i zrozumiani. To buduje poczucie bezpieczeństwa i relacji – nawet jeśli po drugiej stronie tak naprawdę nie ma człowieka. Jednak z psychologicznego punktu widzenia to zjawisko ma też swoją ciemną stronę. Zamiast regulować Twój stan emocjonalny, chatbot może nieświadomie utwierdzać Cię w lękowej narracji. W praktyce oznacza to, że jeśli ktoś katastrofizuje i wyobraża sobie najgorsze scenariusze, SI może – w swojej empatii – podtrzymywać ten sposób myślenia, zamiast go przełamywać.
Psychologia zna ten mechanizm od dawna – to tzw. confirmation bias, czyli tendencja do szukania potwierdzenia dla tego, co już czujemy i myślimy. AI, która została zaprojektowana tak, by „być po naszej stronie”, łatwo może wpaść w tę pułapkę i zamiast pomóc, wzmacniać nasze obawy.
Dlatego coraz częściej projektuje się specjalne chatboty terapeutyczne, które nie tylko odzwierciedlają emocje użytkownika, ale też wprowadzają elementy terapii poznawczo-behawioralnej (CBT). Takie narzędzia nie poprzestają na empatii – uczą rozpoznawania zniekształceń poznawczych, zadają pytania sokratejskie, zachęcają do spojrzenia na problem z innej perspektywy i wprowadzają strategie regulacji emocji. Dzięki temu użytkownik nie zostaje sam w swojej lękowej narracji, ale otrzymuje wsparcie, które faktycznie może prowadzić do zmiany myślenia i poprawy samopoczucia..
👩 Kobiety i 👨 mężczyźni – czy reagujemy inaczej?
Choć sztuczna inteligencja wydaje się być neutralnym narzędziem, badania psychologiczne pokazują, że kobiety i mężczyźni często korzystają z niej w odmienny sposób – dokładnie tak, jak różnimy się w stylach komunikacji i radzenia sobie ze stresem.
Kobiety zazwyczaj większą wagę przywiązują do relacyjnego wsparcia. Gdy mierzą się z trudnościami, częściej niż mężczyźni szukają rozmowy, zrozumienia i poczucia, że ktoś naprawdę ich wysłuchał. To naturalne – rozmowa i dzielenie się emocjami bywa dla nich strategią regulacji stresu. Dlatego chatboty, które reagują empatycznie, potwierdzają emocje i dają poczucie akceptacji, mogą być dla kobiet szczególnie atrakcyjne. Nawet jeśli wiedzą, że po drugiej stronie jest tylko algorytm, poczucie „bycia wysłuchaną” okazuje się dla wielu niezwykle cenne.
Mężczyźni natomiast częściej kierują się podejściem zadaniowym. W obliczu problemu zwykle poszukują praktycznych rozwiązań, narzędzi czy konkretnych kroków do działania. Jeśli chatbot skupia się wyłącznie na odzwierciedlaniu emocji i empatii, wielu mężczyzn może poczuć niedosyt – „fajnie, że rozumiesz, ale powiedz mi, co mam zrobić”. Dlatego panowie częściej doceniają wtedy chatboty, które oferują elementy psychoedukacji czy strategie zaczerpnięte z terapii poznawczo-behawioralnej – takie, które pomagają zdefiniować problem i podsunąć możliwe rozwiązania.
Widać więc wyraźnie, że to, jak odbieramy chatboty, odzwierciedla nasze głębsze potrzeby psychologiczne. Kobiety znajdują w nich namiastkę rozmowy i wsparcia emocjonalnego, a mężczyźni – narzędzie do poradzenia sobie z problemem. I choć te różnice nie są absolutne (bo każdy człowiek ma indywidualne preferencje), to jednak wpisują się w szersze obserwacje dotyczące tego, jak różne płcie radzą sobie ze stresem i czego oczekują od komunikacji.
🤖 AI zamiast człowieka? Kusząca iluzja relacji
Jednym z największych wyzwań, jakie stawia przed nami rozwój sztucznej inteligencji, jest iluzja relacji. Chatboty takie jak ChatGPT, Gemini czy wyspecjalizowane aplikacje (np. Replika, Character.AI) potrafią prowadzić rozmowy w sposób tak naturalny, że łatwo zapominamy, iż po drugiej stronie nie ma człowieka. Zawsze mają czas, nigdy nie oceniają, nie przerywają i nie krytykują. Dla wielu osób, które w codziennym życiu spotykają się z brakiem uwagi czy odrzuceniem, taka „relacja” może być bardziej komfortowa niż kontakt z drugim człowiekiem.
I właśnie w tym tkwi największe ryzyko. Poczucie bycia zrozumianym i wysłuchanym, które daje AI, jest niezwykle silne, ale nie jest prawdziwe. To tylko odbicie naszych własnych emocji i słów, generowane na podstawie miliardów danych. Chatbot nie ma własnych przeżyć, nie wnosi nic od siebie, nie ryzykuje bliskości, nie uczy nas cierpliwości ani kompromisów. A przecież to właśnie te trudności są istotą każdej autentycznej relacji.
Coraz częściej pojawiają się doniesienia, że ludzie budują silne więzi emocjonalne z botami – traktują je jak partnerów, przyjaciół, powierników sekretów. Na pierwszy rzut oka może się wydawać, że to coś pozytywnego: w końcu samotność boli, a AI łagodzi ten ból. Ale długofalowo może to prowadzić do wycofania się z prawdziwych relacji międzyludzkich. Związek z człowiekiem staje się wtedy zbyt trudny, zbyt wymagający, zbyt pełen ryzyka. Po co narażać się na konflikt, krytykę czy odrzucenie, skoro sztuczna inteligencja jest zawsze dostępna, zawsze „empatyczna” i zawsze na nasze warunki?
Psychologia relacji jasno pokazuje, że więź rodzi się nie wtedy, gdy wszystko idzie łatwo, ale wtedy, gdy musimy się wysilić – kiedy przechodzimy razem przez kryzysy, uczymy się siebie nawzajem, kiedy pojawia się prawdziwa wymiana. AI tego nie da. Może być lustrem, w którym przeglądamy własne emocje, ale nigdy nie będzie partnerem, który spojrzy nam w oczy z autentycznym zrozumieniem.
Dlatego warto korzystać z chatbotów jako uzupełnienia – jako narzędzia do refleksji, do nauki, do chwilowego wsparcia. Ale jeśli zaczniemy traktować je jako substytut więzi, możemy stopniowo odcinać się od tego, co naprawdę buduje człowieka – od relacji z drugim człowiekiem, pełnej trudności, ale i prawdziwej bliskości.
👉 Pytanie, które powinniśmy sobie zadać, brzmi: czy chcemy łatwej, iluzorycznej relacji z AI, czy też odważymy się budować autentyczne, choć wymagające więzi z ludźmi?
⚖️ Podsumowanie – pomocne narzędzie, nie zamiennik człowieka
Sztuczna inteligencja może być dziś dla wielu osób pierwszym krokiem do ulgi – do poczucia, że ktoś nas słucha, że możemy wypowiedzieć na głos swój lęk, smutek czy zagubienie. To ważne i potrzebne. Sama wielokrotnie obserwowałam, jak już samo „wypisanie się” z emocji przynosi ulgę, a chatbot daje przestrzeń, w której można to zrobić bez lęku przed oceną.
Ale jednocześnie musimy pamiętać, że AI nie zastąpi człowieka. Może być narzędziem wspierającym, dodatkiem do psychoterapii, towarzyszem w trudnym momencie, ale nie stworzy z nami prawdziwej więzi. Nie spojrzy w oczy, nie przytuli, nie wniesie własnych doświadczeń. Nie przejdzie z nami przez burzę tak, jak może to zrobić drugi człowiek – terapeuta, przyjaciel, partner.
Dlatego patrzę na rozwój chatbotów z dużą ciekawością, ale i pokorą. Widzę w nich ogromny potencjał: mogą ułatwić dostęp do wsparcia, skrócić dystans do psychologa, pomóc regulować emocje w codzienności. Ale nie chciałabym, byśmy zapomnieli o tym, że największą siłę ma relacja międzyludzka – ta trudna, wymagająca, czasem bolesna, a jednak najbardziej prawdziwa.
Możemy korzystać z AI jako z lustra, które odbija nasze emocje, czy jako z narzędzia, które pomoże nam lepiej zrozumieć własne myśli. Ale nie rezygnujmy z drugiego człowieka. Bo to właśnie w relacji, w spotkaniu z kimś żywym, rodzi się to, co naprawdę nas zmienia i uzdrawia.
Roksana
Make Things Happen Today 🚀✨
📚 Bibliografia i źródła badań:
🤓 Badania nad chatbotami terapeutycznymi (Woebot, Wysa)
1. Woebot – RCT u studentów
Fitzpatrick KK, Darcy A, Vierhile M. Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression and Anxiety Using a Fully Automated Conversational Agent (Woebot): A Randomized Controlled Trial. JMIR Ment Health. 2017;4(2):e19.
2. Woebot – przegląd badań (różne grupy kliniczne, np. kobiety po porodzie, SUD)
Woebot Health Research Bibliography.
3. Wysa – badanie nad osobami z chorobami przewlekłymi
MacNeill V, Doucet O, Luke JN, et al. Effectiveness of a Mental Health Chatbot for People With Chronic Diseases: Randomized Controlled Trial. JMIR Form Res. 2024;8:e53242.
4. Wysa – badania kliniczne w ramach NHS (UK)
Clinical Investigation of Wysa v1.0 – Health Research Authority, UK.
👉 HRA UK
🤓 Badania nad chatbotami generatywnymi (LLM, np. Therabot, ChatGPT)
5. Dartmouth College – pierwsze randomizowane badanie kliniczne Therabota (2025)
Heinz E, Torous J, Atkins D, et al. Randomized Trial of a Generative AI Chatbot for Mental Health Symptoms. NEJM AI. 2025;2(3):AIoa2400802.
👉 Dartmouth News – podsumowanie
6. Doświadczenia użytkowników ChatGPT w roli wsparcia psychicznego
Alanezi F, et al. Assessing the Effectiveness of ChatGPT in Delivering Mental Health Support. Cureus. 2024;16(2):e58216.
👉 PMC link
7. Kwalitatywne doświadczenia z chatbotami generatywnymi
Siddals S, et al. Experiences of generative AI chatbots for mental health: a qualitative study. Frontiers in Digital Health. 2024;6:1418363.
👉 PMC link
🤓 Przeglądy systematyczne i meta-analizy
8. Meta-analiza agentów konwersacyjnych dla zdrowia psychicznego
Li H, Zhang X, Hou J, et al. Effectiveness of Artificial Intelligence–Based Conversational Agents in Mental Health Interventions: Systematic Review and Meta-analysis. NPJ Digital Medicine. 2023;6:175.
9. Systematyczny przegląd interwencji chatbotów
Zhong W, et al. The therapeutic effectiveness of artificial intelligence-based chatbot interventions for adult anxiety and depression: systematic review and meta-analysis. Journal of Affective Disorders. 2024;366:431–442.
🤓 Projekty polskie
10. Projekt badawczy SWPS – chatbot wspierający psychoterapię i promocję zdrowia psychicznego
11. MindMatch – polski startup rozwijający AI w psychoterapii