ChatGPT – AI, która kłamie
Świat zachwycił się możliwościami najnowszego narzędzia udostępnionego publicznie przez OpenAI. Mowa oczywiście o ChatGPT. W całej sieci niczym grzyby po deszczu powstają opisy tej sztucznej inteligencji, padają wielkie słowa: „przełom”, „niezwykły sukces”, „imponujące”.
Ten artykuł pochodzi z archiwalnego iMagazine 2/2023
Masowo mnożą się też wszelkiej maści poradniki pokazujące potencjał opublikowanego przez OpenAI narzędzia, niemal wszystkie w entuzjastycznym tonie przepojonym zachwytem, media masowo informują o tym, że „Google uruchamia czerwony alarm” (cokolwiek to znaczy). Krótko mówiąc: dzieje się.
Tymczasem ChatGPT to narzędzie demonstrujące, w jaki sposób maszyna może komunikować się z użytkownikiem w zrozumiały dla niego sposób w jego własnym języku (tak, ChatGPT umie po polsku).
Tylko tyle i aż tyle. Nie jest ani wyrocznią, ani kompetentną bazą wiedzy, jak niektórzy próbują przedstawiać to narzędzie. Świadczy o tym kilka istotnych faktów, o których informuje samo OpenAI, czyli podmiot odpowiedzialny za opracowanie tego „inteligentnego” chatbota.
Zacznijmy od samego zakresu wiedzy i danych treningowych. GPT to autoregresyjny model języka, który wykorzystuje maszynowo wyuczoną (wcześniej) wielowarstwową sieć neuronową, by generować tekst podobny do tego, jaki napisałby/powiedział, człowiek. Do takich wniosków prowadzi już samo rozwinięcie skrótu GPT oznaczające Generative Pre-trained Transformer, czyli generatywny, wstępnie wytrenowany transformator.
Czym jest transformator w kontekście algorytmów AI? To maszynowo wyuczony algorytm, który na podstawie odpowiednich danych wejściowych jest w stanie „wytworzyć” coś zupełnie nowego. Przykładów takich algorytmów mamy wiele: otaczają nas, choć najczęściej nie zdajemy sobie z tego w ogóle sprawy. I nie chodzi mi o inny medialny przykład, jak algorytmy DALL-E 2 czy Midjourney, które na podstawie tekstowego opisu są w stanie wygenerować obraz, lecz o bardziej przyziemne rzeczy, jak np. upscaling w telewizorach 8K. Technika ta dziś również korzysta z sieci neuronowych. Mówiąc wprost, AI generuje nieistniejącą informację o brakujących pikselach na podstawie analizy sygnału źródłowego o niższej rozdzielczości, ale choć obserwujemy wyniki (nieistniejący w źródle obraz o bardzo wysokiej rozdzielczości), to tego nie doceniamy, bo maszyna nie gada do nas „po ludzku”. A ChatGPT właśnie to robi.
Jednak z faktu, że ktoś umie mówić, nie należy wyprowadzać wniosku, że wie, o czym mówi. Tak właśnie jest z ChatGPT. OpenAI informuje, że upubliczniony algorytm ma zamkniętą wiedzę treningową obejmującą treści do 2021 roku (z wielu różnych źródeł). Bogactwo językowe źródłowych danych oraz głębokość sieci neuronowej (GPT 3.5, bo na takiej wersji modelu bazuje ChatGPT gdy powstawał niniejszy materiał, jest siecią o 175 miliardach parametrów) pozwala generować wypowiedzi prezentujące się całkiem składnie.
Jeszcze lepiej jest w przypadku kodu, który – z samej definicji – jest bardziej sformalizowany od ludzkiego języka. Tak duża liczba parametrów i bogactwo danych treningowych pozwoliły na stworzenie bota, który wygląda, jakby wiedział, o czym mówi, choć tak nie jest. To iluzja. Wypowiedzi są składne, nie powtarzają się, zapytany o to samo ChatGPT potrafi wytworzyć różne odpowiedzi (niekoniecznie zgodne z prawdą, za to różniące się składnią, nacechowaniem emocjonalnym itp.). Dokładnie tak jak ludzie. My też w rozmowach między sobą mówimy różnie, zależnie od kontekstu, nastroju i wielu innych czynników. W tym sensie ChatGPT brzmi wręcz „ludzko”.
Wspomniałem wcześniej, że cechą transformerów, czyli komputerowych modeli AI przetwarzających dane, jest wytworzenie nowych danych na podstawie wcześniej wtłoczonych informacji treningowych. W przypadku ChatGPT tym czymś „nowym” – nową informacją, wygenerowaną przez algorytm na podstawie danych treningowych – jest po prostu w miarę składna wypowiedź, a także np. fragment kodu programu w praktycznie dowolnym języku programowania.
Ale, uwaga, ani ta wypowiedź, ani ów kod nie muszą być poprawne, zarówno językowo, jak i znaczeniowo. Mówiąc wprost, ChatGPT może wprowadzać w błąd, nie robi tego jednak celowo. AI kłamie, a dokładniej: zmyśla, ale nie wie o tym, bo algorytm nie ma świadomości, bazuje tylko na wytrenowanym modelu. Głównym celem tworu OpenAI nie był factchecking i generowanie prawdziwych odpowiedzi, lecz generowanie takich fraz, które w odczuciu użytkownika będą dawać wrażenie rozmowy z człowiekiem. Sądząc po tym, jak wielu użytkowników entuzjastycznie antropomorfizuje ChatGPT, to się chyba OpenAI udało.
Tymczasem Chat GPT zmyśla i jest podatny na manipulację – na szczęście tylko w obrębie pojedynczej sesji użytkownika, w przeciwnym razie algorytm ten skończyłby zapewne karierę jak niechlubna AI Microsoftu, również chatbot o nazwie Tay, w którym nie zablokowano mechanizmu uczenia na bieżąco, w efekcie Tay już po 24 godzinach był wytrenowanym rasistą pełnym najgorszych twierdzeń i opinii. Na internautów zawsze można liczyć…
Po co nam taka AI? Dopracowany model językowy, który maszynie pozwalałby się komunikować z człowiekiem w możliwie naturalny sposób, najbardziej przypominający rozmowę z drugim człowiekiem, jest rozwiązaniem pożądanym w kontekście obniżenia bariery wejścia do bardzo wielu różnych technologii. Na razie ChatGPT jest eksperymentem, prowadzonym przez OpenAI. Co więcej, to nie jest eksperyment dotyczący samego ChatGPT, to eksperyment na ludziach.