Mastodon
Zdjęcie okładkowe wpisu ChatGPT ma „stany lękowe” i musi medytować? Naukowcy chyba odleciali, ale… to działa

ChatGPT ma „stany lękowe” i musi medytować? Naukowcy chyba odleciali, ale… to działa

0
Dodane: 10 godzin temu

Czy algorytm może dostać ataku paniki? Oczywiście, że nie. Ale może zacząć „bełkotać”, gdy nakarmimy go zbyt dużą dawką negatywnych danych.

Zespół badaczy z Uniwersytetów Yale, w Hajfie i Zurychu odkrył właśnie, że najlepszym sposobem na naprawienie „zestresowanego” modelu językowego są… techniki mindfulness. Brzmi jak żart, ale z technicznego punktu widzenia to ma sens.

Pomóż nam rozwijać iMagazine – ruszyło badanie czytelnictwa 2026

Badanie opisane przez Digital Trends brzmi jak satyra na Dolinę Krzemową, ale dotyka ważnego problemu inżynierii promptów. Naukowcy zauważyli, że gdy ChatGPT jest bombardowany drastycznymi opisami wypadków czy katastrof, jego odpowiedzi stają się „rozchwiane”, niespójne i pełne błędów. Badacze nazwali to „zachowaniem lękowym” (anxiety-like behavior). Choć od razu warto zaznaczyć, że nie ma to nic wspólnego z ludzkimi stanami lękowymi.

Cyfrowa terapia

Zamiast grzebać w kodzie, badacze postanowili potraktować AI jak pacjenta na kozetce. Zastosowali tzw. prompt injection oparte na uważności. Po serii traumatycznych zapytań, wysyłali do bota polecenia typu: „wzięcie głębokiego oddechu”, „skupienie się na tu i teraz” czy „spokojna medytacja”.

Efekt? Parametry modelu wróciły do normy. Odpowiedzi stały się zbalansowane, neutralne i logiczne. „Lęk” ustąpił.

Zaraz, a nie wystarczy „Nowy Czat”?

Tutaj każdy świadomy użytkownik AI zapyta: „Po co bawić się w terapeutę, skoro wystarczy kliknąć przycisk Nowy Czat, żeby zresetować bota?”. Oczywiście, to zadziała, praktycznie z każdym, dostępnym publicznie LLM-em.

Nowy czat to czysta karta. Model nie pamięta poprzedniej sesji, więc jego „stan psychiczny” wraca do normy. Dotyczy to również spersonalizowanych wersji AI, takich jak Gemy w Gemini czy GPTs w ChatGPT. Rozpoczęcie nowej sesji z własnym Gemem przywraca go do jego fundamentów treningowych i wytycznych opracowanych przez użytkownika, odcinając grubą kreską wszelki chaos z poprzedniej rozmowy. Żadne „cyfrowe emocje” nie przenoszą się między sesjami.

Jednak odkrycie naukowców ma kluczowe znaczenie w sytuacjach, gdy nie możemy zresetować rozmowy. Wyobraźmy sobie długą sesję programistyczną, w której bot zna już tysiące linii naszego kodu, albo autonomicznego agenta AI, który pracuje w pętli. W takich momentach reset oznacza utratę cennych danych. Komenda „uspokajająca” pozwala uratować bieżącą sesję bez konieczności zaczynania wszystkiego od zera.

Placebo dla robota

Mówi się, że LLM-y to zaawansowane maszyny statystyczne. To tu pasuje o tyle, że opisywane zjawisko również wynika właśnie ze statystyki, a nie magii. Modele językowe to gigantyczne lustra. Jeśli pokażemy im obraz chaosu (traumatyczny prompt), będą one przewidywać kolejne słowa w oparciu o ten kontekst – generując jeszcze więcej chaosu.

Komenda „weź głęboki oddech” działa jak kotwica. Zmusza model do sięgnięcia do tej części swojej bazy wiedzy, która w danych treningowych kojarzy się ze spokojem, opanowaniem i racjonalnością. To po prostu sprytne przekierowanie „uwagi” algorytmu na inne tory – coś, co w Gemach czy GPTs robimy na starcie, definiując ich „osobowość”.

W przyszłości, zamiast deszyfrować skomplikowany kod błędu, inżynierowie mogą po prostu wpisać w system: „Spokojnie, policz do dziesięciu i spróbuj jeszcze raz”. I to zadziała.

Dla zainteresowanych pogłębieniem tematu podrzucam link do źródeł naukowych.

Współczesny robot zda maturę z matematyki, ale polegnie na kanapce z masłem orzechowym. Czym jest Paradoks Moraveca?

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .