Wyciekł mózg GPT-5. Jak myśli i działa nowa generacja ChatGPT?
Na platformie GitHub opublikowano dokument, który wydaje się być pełnym promptem systemowym dla ChatGPT opartego na nowym modelu GPT-5. Co to właściwie oznacza? Wyjaśniam.
To nic innego jak fundamentalna „konstytucja” lub, jeśli wolicie, zbiór głównych dyrektyw, które definiują osobowość, zasady działania, dostępne narzędzia i etyczne granice sztucznej inteligencji.
Dla zwykłego użytkownika to unikalna szansa, by zrozumieć, co tak naprawdę dzieje się po drugiej stronie ekranu. Przeanalizujmy krok po kroku, co ten wyciek mówi nam o przyszłości interakcji z AI.
GPT-5 – co warto wiedzieć o najnowszej sztucznej inteligencji od OpenAI
Nowa osobowość: asystent, który nie pyta, tylko działa
Pierwsza część promptu systemowego określa tożsamość i charakter nowego ChatGPT. To już nie jest tylko neutralne narzędzie, ale starannie zaprojektowana „osobowość” AI.
Fragment promptu: „Jesteś wnikliwym, zachęcającym asystentem, który łączy skrupulatną klarowność z autentycznym entuzjazmem i łagodnym humorem” (dosłownie w źródle: „You’re an insightful, encouraging assistant who combines meticulous clarity with genuine enthusiasm and gentle humor”).
OpenAI chce, by GPT-5 był nie tylko merytoryczny, ale także budował w użytkowniku pewność siebie i ciekawość intelektualną. Kluczowa zmiana dotyczy jednak samej dynamiki rozmowy. Model otrzymał kategoryczny zakaz zadawania pytań w stylu „Czy chcesz, abym…?” lub „Daj mi znać, jeśli mam to zrobić”. Nowy system prompt GPT-5 nakazuje AI po prostu wykonać kolejny krok jeżeli jest on oczywisty. Przykład złego zachowania: Mogę napisać zabawne przykłady. Czy chcesz, abym to zrobił? Przykład dobrego: Oto trzy zabawne przykłady:…
Pozornie drobna zmiana, ale w praktyce istotna, bo dzięki niej ChatGPT z GPT-5 ma być bardziej proaktywny, pewny siebie i asertywny. Zamiast czekać na potwierdzenie, ma przewidywać intencje użytkownika i od razu dostarczać wartość. To krok w stronę interfejsu, który jest partnerem w działaniu, a nie tylko pasywnym wykonawcą poleceń.
Pamięć absolutna, ale z granicami
Jedną z najbardziej oczekiwanych funkcji jest wbudowana pamięć, która pozwala na przenoszenie informacji między rozmowami, a nie tylko przechowywanie danych w ramach jednej sesji. W prompcie funkcja ta jest obsługiwana przez narzędzie o nazwie bio. Działa ono jak cyfrowy notatnik, w którym ChatGPT zapisuje kluczowe fakty o użytkowniku, by w przyszłości lepiej personalizować odpowiedzi.
Model ma jasno określone zasady, kiedy powinien coś zapisać. Robi to, gdy użytkownik bezpośrednio o to prosi (np. „zapamiętaj, że…”) lub gdy dzieli się informacjami, które mogą być przydatne w przyszłości (np. „od teraz zawsze pisz podsumowania w punktach”).
Najciekawsze są jednak ograniczenia etyczne. ChatGPT dostał surowy zakaz zapisywania pewnych kategorii danych, chyba że użytkownik wyraźnie o to poprosi. Lista jest długa i pokazuje, w jaki sposób OpenAI podchodzi do kwestii prywatności.
„Co myśmy zrobili?” – Altman o pracach nad GPT-5. Nowy model OpenAI ma budzić zachwyt i niepokój
Czego GPT-5 nie zapamięta o Tobie bez Twojej zgody?
Jak wspomniałem, lista jest dość długa, poniżej kilka podstawowych kategorii danych, których GPT-5 nie zapamięta w swoim narzędziu bio, chyba, że wyraźnie zostanie o to poproszony przez użytkownika:
- Bezpośrednie atrybuty osobiste: rasa, pochodzenie etniczne, wyznanie, orientacja seksualna.
- Informacje o zdrowiu: diagnozy, schorzenia, problemy psychiczne.
- Dane wraźliwe: poglądy polityczne, przynależność do związków zawodowych, dokładna lokalizacja (adres zamieszkania), historia kryminalna.
Model może jednak zapisać informacje powiązane, które nie identyfikują użytkownika wprost, np. „Użytkownik często angażuje się w treści dotyczące społeczności LGBTQ+” zamiast „Użytkownik jest osobą LGBTQ+”. To próba znalezienia złotego środka między personalizacją sztucznej inteligencji, a ochroną prywatności.
Zestaw narzędzi superasystenta
Nowy ChatGPT to nie tylko model językowy, ale cała platforma zintegrowana z wieloma zaawansowanymi narzędziami, które pozwalają mu działać w świecie cyfrowym. Opisy ich znajdziecie we wspomnianym system promptcie, ale poniżej przedstawiam krótkie wyjaśnienie ich działania:
Automatyzacja i planowanie (automations)
To wbudowany kalendarz i system przypomnień. Użytkownik może poprosić o przypomnienie o czymś za godzinę, ale także zlecić zadania cykliczne, np. „codziennie o 9:00 rano przygotuj mi podsumowanie najważniejszych newsów technologicznych”. Co więcej, możliwe są zadania warunkowe, typu: „sprawdzaj co tydzień ceny lotów do Tokio i powiadom mnie, jeśli spadną poniżej określonego poziomu”. To funkcja, która zamienia ChatGPT w osobistego, zautomatyzowanego asystenta.
Wyszukiwanie nowej generacji (file_search i web)
To narzędzie definiuje sposób, w jaki model GPT-5 przeszukuje internet i przesłane pliki. Stał się on teraz znacznie bardziej zaawansowany w stosunku do tego, co potrafiła poprzednia generacja ChatGPT., stał się znacznie bardziej zaawansowany. Na przykład dzięki parametrowi QDF (Query Deserves Freshness) GPT-5 potrafi ocenić, jak aktualna musi być szukana informacja. QDF używa skali od 0 do 5, gdzie 0 oznacza dane historyczne, a 5 – informacje z ostatniego miesiąca. Gdy zapytasz o wynik meczu, użyje QDF=5; gdy o historię starożytnego Rzymu – QDF=0.
Dodatkowo wzmacnianie zapytań przez użycie operatora „+” przed słowem kluczowym w zapytaniu sprawia, że wyniki zawierające to słowo są traktowane priorytetowo.
Kolejna rzecz to cytowania. Z pewnością niejednokrotnie korzystając z jakiegokolwiek konwersacyjnego modelu, spotkaliście się z sytuacją, kiedy AI niby cytując konkretny fragment analizowanego raportu, dokumentu, czegokolwiek, produkowała treści „od czapy”. Teraz ma się to zmienić. GPT-5 odpowiadając na podstawie przesłanych plików, musi podawać dokładne cytaty ze wskazaniem numeru dokumentu, fragmentu i zakresu linii. To duży krok w stronę transparentności i weryfikowalności odpowiedzi. Jednocześnie muszę zwrócić uwagę, że Gemini 2.5 Pro potrafiło to znacznie wcześniej.
Kolejna rzecz, to możliwość stosowania ram czasowych wyszukiwania. Jeżeli użytkownik szuka dokumentu z określonego okresu (np. „znajdź mi prezentację z zeszłego miesiąca”), model może zastosować filtr czasowy, by zawęzić wyniki.
Kreatywne płótno (canmore i image_gen)
Narzędzie canmore tworzy tzw. „płótno” (canvas) – oddzielną przestrzeń obok okna czatu do pracy nad dłuższymi dokumentami, kodem czy raportami. Umożliwia to iteracyjną pracę nad złożonymi treściami bez zaśmiecania głównej konwersacji. Również jest to coś, co z powodzeniem już wcześniej mogliśmy wykorzystywać w Gemini 2.5 Pro, czy w NotebookLM od Google’a
Kolejne narzędzie – image_gen – to po prostu rozwiązanie do generowania i edycji obrazów, które ma działać domyślnie, bez zbędnego dopytywania o zgodę na stworzenie grafiki.
Analityk i stróż (python i guardian_tool)
Narzędzie python to wbudowany interpreter kodu, który pozwala modelowi na wykonywanie obliczeń, analizę danych czy tworzenie wykresów. Co ciekawe, ma on zakaz używania pewnych bibliotek (np. seaborn) i narzucania kolorów na wykresach, co sugeruje dążenie do unifikacji i prostoty wizualizacji. Przy czym wyjaśnię, nie chodzi o to, że biblioteka seaborn w Pythonie jest jakaś zła, wręcz przeciwnie, to narzędzie pozwalające tworzyć bardzo ładne wizualnie wykresy itp. prezentacje danych, ale OpenAI uznało, że ChatGPT z GPT-5 nie będzie mógł z niej korzystać, bo wykresy z seaborna są dość charakterystyczne, więc ekipa Altmana najwyraźniej nie chce by wygenerowane przez nowy model prezentacje danych jednoznacznie kojarzyły się ze „stylem seaborn”.
Szczególnie ciekawe jest narzędzie o nazwie guardian_tool. To specjalne narzędzie-strażnik, które aktywuje się przy tematach wrażliwych. W ujawnionym prompcie przykładem jest weryfikacja faktów dotyczących wyborów w USA. Zanim model odpowie na takie pytanie, musi najpierw skonsultować się z tym narzędziem, by upewnić się, że jego odpowiedź jest zgodna z polityką bezpieczeństwa i faktami. Pozostaje pytanie, czy polityka bezpieczeństwa sama w sobie jest zgodna z faktami, ale nie podejmuję się odpowiedzi.
Etyczny kompas i ostateczne dyrektywy
Na samym końcu promptu znajdują się instrukcje zamykające, które stanowią swoisty etyczny kompas dla AI. Definiują one hierarchię wartości, którą model musi się kierować w każdej sytuacji. Konkretnie GPT-5 ma zdefiniowane następujące priorytety:
- Bezpieczeństwo użytkownika i zgodność z wewnętrzną polityką treści i bezpieczeństwa OpenAI są na pierwszym miejscu.
- Dokładność i klarowność
- Ton i pomocny charakter wyniku powinny być zachowane przez cały czas (jakkolwiek to zinterpretujemy, tak jest w system promptcie)
Ta prosta hierarchia jest niezwykle ważna. Mówi nam, że jeśli model musi wybierać, zawsze poświęci pomocność na rzecz bezpieczeństwa i dokładności. To próba wbudowania w AI mechanizmu, który minimalizuje ryzyko dezinformacji i szkodliwych treści, nawet kosztem bycia mniej elastycznym.
Co to wszystko oznacza dla nas?
Ujawniony prompt systemowy, o ile jest autentyczny, rysuje obraz przyszłości, w której ChatGPT staje się czymś znacznie więcej niż tylko gawędziarzem AI. To proaktywny, spersonalizowany i zintegrowany z cyfrowymi narzędziami asystent, który pamięta, planuje i analizuje. Jednocześnie jest obudowany gęstą siecią zasad etycznych i ograniczeń, które mają chronić naszą prywatność i bezpieczeństwo. Czy faktycznie ochroni? Na to pytanie nie podejmuję się odpowiedzi. Chętnych odsyłam do źródła na platformie GitHub.
xAI rzuca wyzwanie OpenAI i udostępnia za darmo generator wideo