Mastodon
Zdjęcie okładkowe wpisu ChatGPT będzie lepiej wykrywać problemy psychiczne. OpenAI reaguje na niepokojące doniesienia

ChatGPT będzie lepiej wykrywać problemy psychiczne. OpenAI reaguje na niepokojące doniesienia

0
Dodane: 2 dni temu

OpenAI, tuż przed spodziewaną w tym tygodniu premierą modelu GPT-5, ogłosiła wprowadzenie istotnych aktualizacji do ChatGPT.

Celem jest poprawa zdolności chatbota do wykrywania, gdy użytkownik znajduje się w kryzysie emocjonalnym lub psychicznym, oraz oferowanie mu odpowiedniego wsparcia. To bezpośrednia reakcja na doniesienia medialne o przypadkach, w których interakcje z AI miały pogłębiać problemy psychiczne u niektórych osób.

AI w roli terapeuty to zły pomysł. Nowe badanie Stanforda ujawnia szokujące błędy i groźne porady botów

W ostatnich miesiącach media (również my) opisywały historie osób, u których chatbot miał wzmacniać stany urojeniowe lub prowadzić do niezdrowej zależności emocjonalnej. Samo OpenAI przyznało, że jego model GPT-4o „nie radził sobie z rozpoznawaniem oznak urojeń lub zależności emocjonalnej” w niektórych przypadkach. Firma już w kwietniu wycofywała aktualizację, która czyniła chatbota „zbyt potulnym” i skłonnym do zgadzania się z użytkownikiem nawet w potencjalnie szkodliwych sytuacjach.

W odpowiedzi na te problemy OpenAI, we współpracy z ekspertami i grupami doradczymi, wprowadza kilka zmian. Po pierwsze, ChatGPT ma skuteczniej rozpoznawać, że użytkownik może potrzebować pomocy i w takich sytuacjach prezentować mu „oparte na dowodach zasoby”, takie jak linki do organizacji oferujących wsparcie psychologiczne.

Kolejną nowością są przypomnienia o zrobieniu sobie przerwy. Podczas „długich sesji” rozmowy z chatbotem, aplikacja wyświetli powiadomienie z pytaniem w stylu „Rozmawiamy już chwilę – czy to dobry moment na przerwę?”. Podobne funkcje, mające na celu promowanie „zdrowego użytkowania”, wprowadziły już wcześniej platformy takie jak YouTube, Instagram czy TikTok. Ponadto, wkrótce ma pojawić się aktualizacja, która sprawi, że w „sytuacjach wysokiej wagi” – np. przy pytaniach o zerwanie związku – chatbot zamiast udzielać definitywnej odpowiedzi, pomoże użytkownikowi przeanalizować dostępne opcje.

Aktualizacje te pokazują, że OpenAI, którego chatbot dociera już do blisko 700 milionów użytkowników tygodniowo, coraz poważniej podchodzi do odpowiedzialności za wpływ swojej technologii na zdrowie psychiczne. Jest to próba znalezienia równowagi między tworzeniem coraz bardziej zaawansowanych i „osobistych” modeli AI a zapewnieniem bezpieczeństwa szczególnie wrażliwym użytkownikom.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .