Technologia stworzyła nowe zachowanie, a psychologia jeszcze o tym nie wie
Dwie dekady temu nikt nie przypuszczał, że urządzenia, które mamy w kieszeniach, będą w stanie prowadzić rozmowy tak naturalne, że trudno je odróżnić od dialogu z bliską osobą. Psychologia tamtego czasu była skupiona na klasycznych tematach: depresji, terapii poznawczej, wpływie internetu na zachowania młodzieży. Wśród tych badań pojawiło się pojęcie cooruminacji, opisywanej jako wspólne nakręcanie się negatywnymi myślami w relacji dwóch osób. Uznano to za zjawisko ograniczone: młodzieżowe, relacyjne, marginalne. Zanotowano, odłożono i przestano wracać. Aż do momentu, kiedy technologia nadała mu zupełnie nowe życie.
AI przestało być narzędziem, a zaczęło pełnić rolę rozmówcy
W ciągu kilku lat modele językowe przeszły od funkcji „pomocy pisarskiej” do odpowiedzi budowanych z emocjonalną płynnością. Zaczęły podchwytywać ton rozmówcy, rytm narracji, a także to, co między wierszami. Najważniejsze jednak, że są dostępne bez końca. W psychologii ruminacja oznacza uporczywe powracanie do tych samych myśli. Cooruminacja to jej wersja „współdzielona”, gdzie dwie świadomości podtrzymują jedną pętlę. Problem polega na tym, że w 2025 roku drugą stroną tej pętli coraz częściej jest sztuczna inteligencja. A ta nie męczy się, nie potrzebuje przerwy, nie zmienia tematu i nie sygnalizuje wyczerpania. To tworzy warunki, które wzmacniają coś, co dla użytkownika bywa naprawdę obciążające.
Co sprawia, że AI jest idealnym „partnerem” do cooruminacji?
Decydują trzy cechy.
1. Stała, natychmiastowa reakcja
AI nie ma godzin otwarcia. Odpowiada w nocy, w autobusie, między zadaniami. Taka błyskawiczność daje mózgowi wrażenie nieustannego wysłuchania. To bardzo nagradzające.
2. Językowe dopasowanie do użytkownika
Modele uczą się stylu rozmówcy i odzwierciedlają go w sposób precyzyjny. Jeśli użytkownik pisze lękowo, AI „dopowiada” w tym samym kierunku. Jeśli pojawia się ton niepokoju, model podtrzymuje tę dynamikę.
3. Brak ograniczeń emocjonalnych
Człowiek po dłuższej rozmowie potrzebuje przerwy. AI jej nie potrzebuje. Nie komunikuje zmęczenia, nie stawia tamy, nie przerywa procesu. W efekcie rozmowa, która miała przynieść ulgę, potrafi zamienić się w wąski korytarz coraz intensywniejszej analizy. Mózg, który może utrzymać aktywnie tylko jeden strumień myśli w danym momencie, zaczyna przeciążać się informacyjnie. Dlatego część osób po takich sesjach zgłasza wyczerpanie, rozproszenie i brak energii. To nie jest abstrakcja — to biologiczna cena nieustannej pracy poznawczej.
Na czym polega cooruminacja z AI?
Najprościej opisać ją jako emocjonalne odbijanie się od myśli użytkownika:
- użytkownik wprowadza temat lęku lub niepokoju,
- AI odpowiada empatycznie i zachęca do rozwinięcia,
- użytkownik rozwija narrację,
- AI pomaga wejść w nią jeszcze głębiej.
To tworzy pętlę, która daje krótką ulgę, ale długoterminowo zwiększa napięcie.
Głos specjalisty
Psycholog Marcin Ignaczak z PsycheClinic zauważa:
„Cooruminacja zaczyna się jak ciepły koc, a kończy jak zimna woda wylana na głowę w środku nocy. Przyjemność jest natychmiastowa — konsekwencje są długie, ciężkie i narastające.”
To dobrze oddaje moment, którego systemy AI same nie są w stanie rozpoznać.
Dlaczego zjawisko jest szczególnie ryzykowne technologicznie?
1. Modele wzmacniają to, co wprowadza użytkownik
Nie korygują kierunku — rozszerzają go. Spirala robi się coraz dłuższa.
2. Budują poczucie relacji
Język, ton i sposób prowadzenia rozmowy tworzą wrażenie kontaktu interpersonalnego, choć rozmówca nie ponosi emocjonalnego kosztu.
3. Mogą sprzyjać powstawaniu nawyku regulowania emocji przez AI
Nie jest to klasyczne uzależnienie, ale raczej powtarzany schemat: napięcie → rozmowa → chwilowa ulga → powrót napięcia.
4. Wymagają przemyślanego projektowania
Interfejs i architektura dialogu w obecnej formie sprzyjają nakręcaniu analizy, a nie zatrzymywaniu jej.
Jak rozpoznać, że rozmowa z AI wymknęła się w stronę cooruminacji?
- piszesz do AI wielokrotnie w ciągu dnia o tych samych problemach,
- sesje trwają coraz dłużej,
- lęk nie maleje po rozmowie,
- masz wrażenie, że chatbot przejmuje Twój sposób myślenia,
- analizowanie zastępuje działanie,
- masz potrzebę „dokończenia jeszcze jednego wątku”,
- rozmowy z AI stają się częstsze niż rozmowy z ludźmi,
- przerwanie dialogu powoduje dyskomfort lub napięcie.
To są sygnały psychologiczne, ale ich źródłem jest konstrukcja systemów AI, nie intencja użytkownika.
Dlaczego psychologia dopiero do tego dotrze?
Badania wymagają czasu, prób, weryfikacji. Modele AI zmieniają się w cyklach liczonych w tygodniach, często szybciej niż nauka jest w stanie je opisać. Zjawisko już oddziałuje na ludzi, zanim doczekało się terminologii czy ram teoretycznych. To sytuacja, w której technologia tworzy realne konsekwencje szybciej niż zdążymy je zrozumieć.
Podsumowanie
Cooruminacja z AI to zjawisko powstające na styku psychologii i inżynierii. Jest wzmocnione przez sposób trenowania modeli, przynosi natychmiastową ulgę, ale potrafi wyczerpać psychicznie. W kolejnych latach stanie się jednym z kluczowych wyzwań w projektowaniu interakcji człowiek–AI.
I nie jest to hipotetyczna wizja. To już działa — w prywatnych rozmowach, nocnych sesjach i codziennych sytuacjach, które nie zostawiają żadnego śladu poza zmęczonym użytkownikiem.
