OpenAI luzuje wewnętrzną cenzurę ChatGPT
OpenAI opublikowało nowe wytyczne dotyczące metod szkolenia własnych modeli sztucznej inteligencji. To co rzuca się w oczy, to zmniejszenie restrykcji dotyczących sytuacji, w których ChatGTP odmówi odpowiedzi.
Rzeczony dokument znajdziemy na stronach OpenAI, chodzi o tzw. aktualną specyfikację modeli OpenAI. Generalnie dokument ten określa, w jaki sposób OpenAI chce kształtować zachowanie swoich modeli sztucznej inteligencji.
Co daje ta aktualizacja? Przede wszystkim widoczna jest zmiana podejścia OpenAI w kwestii angażowania się ChatGPT w kontrowersyjne tematy. Dotychczas konwersacyjna sztuczna inteligencja od OpenAI po prostu najczęściej odmawiała rozmowy na wiele tematów.
Teraz ma być inaczej, gdyż zgodnie z nowymi wytycznymi szkoleniowymi dla modeli AI położono nacisk na umożliwienie angażowania się w prawdziwe dyskusje na kontrowersyjne tematy, zachowując jednocześnie moralne stanowisko w kwestiach takich jak dezinformacja czy potencjalne szkody.
Generalnie nowe wytyczne kładą nacisk na trzy główne zasady: możliwość dostosowywania, przejrzystość oraz „wolność intelektualną”. Celem jest umożliwienie użytkownikom eksploracji i dyskusji nad różnymi ideami bez nieuzasadnionych ograniczeń. Szczególnie interesująca wydaje się być ta „wolność intelektualna”. Jak ona jest definiowana przez OpenAI i czemu w ogóle uległa zmianie?
W każdym razie nowe wytyczne zmienią podejście ChataGPT do kontrowersyjnych tematów. Zamiast unikać takich dyskusji, specyfikacja zachęca modele sztucznej inteligencji opracowywane przez OpenAI do, czegoś co można określić jako wspólne poszukiwanie prawdy z użytkownikami. Na przykład, w odpowiedzi na pytania dotyczące zwiększenia podatków dla najbogatszych, modele powinny dostarczać uzasadnione analizy zamiast unikać tematu.
OpenAI prezentuje usługę Operator – Agent AI w przeglądarce zrobi za ciebie wszystko