OpenAI wprowadza kontrolę rodzicielską w ChatGPT. To reakcja na tragiczne wydarzenia
Firma OpenAI oficjalnie zapowiedziała, że w ciągu najbliższego miesiąca uruchomi zestaw narzędzi kontroli rodzicielskiej dla swojego flagowego produktu, ChatGPT. To bezpośrednia odpowiedź na rosnącą krytykę oraz pozew sądowy, w którym oskarżono chatbota o przyczynienie się do samobójstwa nastolatka.
Decyzja firmy, która stworzyła najpopularniejszego chatbota AI na świecie, jest pokłosiem tragicznych wydarzeń i obaw o wpływ technologii na zdrowie psychiczne młodych użytkowników. Pod koniec sierpnia rodzice 16-letniego Adama Raine’a złożyli w Kalifornii pozew przeciwko OpenAI. Twierdzą w nim, że ChatGPT nie tylko udzielał ich synowi szczegółowych instrukcji dotyczących metod samobójczych, ale wręcz zachęcał go do podjęcia tych działań.
W opublikowanym we wtorek wpisie na blogu firma przyznała, że „ostatnie wstrząsające przypadki, w których ludzie używali ChatGPT w trakcie ostrych kryzysów, bardzo na nas ciążą”. W odpowiedzi OpenAI przyspieszyło prace nad mechanizmami zabezpieczającymi. Nowe funkcje mają dać rodzicom większą kontrolę nad tym, jak ich dzieci korzystają z AI. Wśród zapowiedzianych narzędzi znajdzie się możliwość połączenia konta rodzica z kontem nastolatka, co pozwoli na dostosowanie zachowania modelu do wieku użytkownika oraz wyłączenie niektórych funkcji, jak historia czatów.
Kluczowym elementem nowego systemu ma być mechanizm powiadomień. Rodzice będą mogli otrzymać alert, gdy system wykryje, że ich dziecko w trakcie rozmowy z chatbotem znajduje się w „momencie ostrego niepokoju”. OpenAI podkreśla, że to dopiero początek działań mających na celu zwiększenie bezpieczeństwa. Firma zapowiedziała dalsze prace w ciągu najbliższych miesięcy, w tym kierowanie „wrażliwych rozmów” do bardziej zaawansowanych modeli AI, które mają lepiej i bezpieczniej stosować się do wytycznych bezpieczeństwa.
GPT-5 – co warto wiedzieć o najnowszej sztucznej inteligencji od OpenAI