Mastodon
Zdjęcie okładkowe wpisu Wyciekł mózg GPT-5. Jak myśli i działa nowa generacja ChatGPT?

Wyciekł mózg GPT-5. Jak myśli i działa nowa generacja ChatGPT?

0
Dodane: 1 dzień temu

Na platformie GitHub opublikowano dokument, który wydaje się być pełnym promptem systemowym dla ChatGPT opartego na nowym modelu GPT-5. Co to właściwie oznacza? Wyjaśniam.

To nic innego jak fundamentalna „konstytucja” lub, jeśli wolicie, zbiór głównych dyrektyw, które definiują osobowość, zasady działania, dostępne narzędzia i etyczne granice sztucznej inteligencji.

Dla zwykłego użytkownika to unikalna szansa, by zrozumieć, co tak naprawdę dzieje się po drugiej stronie ekranu. Przeanalizujmy krok po kroku, co ten wyciek mówi nam o przyszłości interakcji z AI.

GPT-5 – co warto wiedzieć o najnowszej sztucznej inteligencji od OpenAI

Nowa osobowość: asystent, który nie pyta, tylko działa

Pierwsza część promptu systemowego określa tożsamość i charakter nowego ChatGPT. To już nie jest tylko neutralne narzędzie, ale starannie zaprojektowana „osobowość” AI.

Fragment promptu: „Jesteś wnikliwym, zachęcającym asystentem, który łączy skrupulatną klarowność z autentycznym entuzjazmem i łagodnym humorem” (dosłownie w źródle: „You’re an insightful, encouraging assistant who combines meticulous clarity with genuine enthusiasm and gentle humor”).

OpenAI chce, by GPT-5 był nie tylko merytoryczny, ale także budował w użytkowniku pewność siebie i ciekawość intelektualną. Kluczowa zmiana dotyczy jednak samej dynamiki rozmowy. Model otrzymał kategoryczny zakaz zadawania pytań w stylu „Czy chcesz, abym…?” lub „Daj mi znać, jeśli mam to zrobić”. Nowy system prompt GPT-5 nakazuje AI po prostu wykonać kolejny krok jeżeli jest on oczywisty. Przykład złego zachowania: Mogę napisać zabawne przykłady. Czy chcesz, abym to zrobił? Przykład dobrego: Oto trzy zabawne przykłady:…

Pozornie drobna zmiana, ale w praktyce istotna, bo dzięki niej ChatGPT z GPT-5 ma być bardziej proaktywny, pewny siebie i asertywny. Zamiast czekać na potwierdzenie, ma przewidywać intencje użytkownika i od razu dostarczać wartość. To krok w stronę interfejsu, który jest partnerem w działaniu, a nie tylko pasywnym wykonawcą poleceń.

OpenAI ogłasza GPT-5!

Pamięć absolutna, ale z granicami

Jedną z najbardziej oczekiwanych funkcji jest wbudowana pamięć, która pozwala na przenoszenie informacji między rozmowami, a nie tylko przechowywanie danych w ramach jednej sesji. W prompcie funkcja ta jest obsługiwana przez narzędzie o nazwie bio. Działa ono jak cyfrowy notatnik, w którym ChatGPT zapisuje kluczowe fakty o użytkowniku, by w przyszłości lepiej personalizować odpowiedzi.

Model ma jasno określone zasady, kiedy powinien coś zapisać. Robi to, gdy użytkownik bezpośrednio o to prosi (np. „zapamiętaj, że…”) lub gdy dzieli się informacjami, które mogą być przydatne w przyszłości (np. „od teraz zawsze pisz podsumowania w punktach”).

Najciekawsze są jednak ograniczenia etyczne. ChatGPT dostał surowy zakaz zapisywania pewnych kategorii danych, chyba że użytkownik wyraźnie o to poprosi. Lista jest długa i pokazuje, w jaki sposób OpenAI podchodzi do kwestii prywatności.

„Co myśmy zrobili?” – Altman o pracach nad GPT-5. Nowy model OpenAI ma budzić zachwyt i niepokój

Czego GPT-5 nie zapamięta o Tobie bez Twojej zgody?

Jak wspomniałem, lista jest dość długa, poniżej kilka podstawowych kategorii danych, których GPT-5 nie zapamięta w swoim narzędziu bio, chyba, że wyraźnie zostanie o to poproszony przez użytkownika:

  • Bezpośrednie atrybuty osobiste: rasa, pochodzenie etniczne, wyznanie, orientacja seksualna.
  • Informacje o zdrowiu: diagnozy, schorzenia, problemy psychiczne.
  • Dane wraźliwe: poglądy polityczne, przynależność do związków zawodowych, dokładna lokalizacja (adres zamieszkania), historia kryminalna.

Model może jednak zapisać informacje powiązane, które nie identyfikują użytkownika wprost, np. „Użytkownik często angażuje się w treści dotyczące społeczności LGBTQ+” zamiast „Użytkownik jest osobą LGBTQ+”. To próba znalezienia złotego środka między personalizacją sztucznej inteligencji, a ochroną prywatności.

Zestaw narzędzi superasystenta

Nowy ChatGPT to nie tylko model językowy, ale cała platforma zintegrowana z wieloma zaawansowanymi narzędziami, które pozwalają mu działać w świecie cyfrowym. Opisy ich znajdziecie we wspomnianym system promptcie, ale poniżej przedstawiam krótkie wyjaśnienie ich działania:

Automatyzacja i planowanie (automations)

To wbudowany kalendarz i system przypomnień. Użytkownik może poprosić o przypomnienie o czymś za godzinę, ale także zlecić zadania cykliczne, np. „codziennie o 9:00 rano przygotuj mi podsumowanie najważniejszych newsów technologicznych”. Co więcej, możliwe są zadania warunkowe, typu: „sprawdzaj co tydzień ceny lotów do Tokio i powiadom mnie, jeśli spadną poniżej określonego poziomu”. To funkcja, która zamienia ChatGPT w osobistego, zautomatyzowanego asystenta.

Wyszukiwanie nowej generacji (file_search i web)

To narzędzie definiuje sposób, w jaki model GPT-5 przeszukuje internet i przesłane pliki. Stał się on teraz znacznie bardziej zaawansowany w stosunku do tego, co potrafiła poprzednia generacja ChatGPT., stał się znacznie bardziej zaawansowany. Na przykład dzięki parametrowi QDF (Query Deserves Freshness) GPT-5 potrafi ocenić, jak aktualna musi być szukana informacja. QDF używa skali od 0 do 5, gdzie 0 oznacza dane historyczne, a 5 – informacje z ostatniego miesiąca. Gdy zapytasz o wynik meczu, użyje QDF=5; gdy o historię starożytnego Rzymu – QDF=0.

Dodatkowo wzmacnianie zapytań przez użycie operatora „+” przed słowem kluczowym w zapytaniu sprawia, że wyniki zawierające to słowo są traktowane priorytetowo.

Kolejna rzecz to cytowania. Z pewnością niejednokrotnie korzystając z jakiegokolwiek konwersacyjnego modelu, spotkaliście się z sytuacją, kiedy AI niby cytując konkretny fragment analizowanego raportu, dokumentu, czegokolwiek, produkowała treści „od czapy”. Teraz ma się to zmienić. GPT-5 odpowiadając na podstawie przesłanych plików, musi podawać dokładne cytaty ze wskazaniem numeru dokumentu, fragmentu i zakresu linii. To duży krok w stronę transparentności i weryfikowalności odpowiedzi. Jednocześnie muszę zwrócić uwagę, że Gemini 2.5 Pro potrafiło to znacznie wcześniej.

Kolejna rzecz, to możliwość stosowania ram czasowych wyszukiwania. Jeżeli użytkownik szuka dokumentu z określonego okresu (np. „znajdź mi prezentację z zeszłego miesiąca”), model może zastosować filtr czasowy, by zawęzić wyniki.

Kreatywne płótno (canmore i image_gen)

Narzędzie canmore tworzy tzw. „płótno” (canvas) – oddzielną przestrzeń obok okna czatu do pracy nad dłuższymi dokumentami, kodem czy raportami. Umożliwia to iteracyjną pracę nad złożonymi treściami bez zaśmiecania głównej konwersacji. Również jest to coś, co z powodzeniem już wcześniej mogliśmy wykorzystywać w Gemini 2.5 Pro, czy w NotebookLM od Google’a

Kolejne narzędzie – image_gen – to po prostu rozwiązanie do generowania i edycji obrazów, które ma działać domyślnie, bez zbędnego dopytywania o zgodę na stworzenie grafiki.

Analityk i stróż (python i guardian_tool)

Narzędzie python to wbudowany interpreter kodu, który pozwala modelowi na wykonywanie obliczeń, analizę danych czy tworzenie wykresów. Co ciekawe, ma on zakaz używania pewnych bibliotek (np. seaborn) i narzucania kolorów na wykresach, co sugeruje dążenie do unifikacji i prostoty wizualizacji. Przy czym wyjaśnię, nie chodzi o to, że biblioteka seaborn w Pythonie jest jakaś zła, wręcz przeciwnie, to narzędzie pozwalające tworzyć bardzo ładne wizualnie wykresy itp. prezentacje danych, ale OpenAI uznało, że ChatGPT z GPT-5 nie będzie mógł z niej korzystać, bo wykresy z seaborna są dość charakterystyczne, więc ekipa Altmana najwyraźniej nie chce by wygenerowane przez nowy model prezentacje danych jednoznacznie kojarzyły się ze „stylem seaborn”.

Szczególnie ciekawe jest narzędzie o nazwie guardian_tool. To specjalne narzędzie-strażnik, które aktywuje się przy tematach wrażliwych. W ujawnionym prompcie przykładem jest weryfikacja faktów dotyczących wyborów w USA. Zanim model odpowie na takie pytanie, musi najpierw skonsultować się z tym narzędziem, by upewnić się, że jego odpowiedź jest zgodna z polityką bezpieczeństwa i faktami. Pozostaje pytanie, czy polityka bezpieczeństwa sama w sobie jest zgodna z faktami, ale nie podejmuję się odpowiedzi.

Etyczny kompas i ostateczne dyrektywy

Na samym końcu promptu znajdują się instrukcje zamykające, które stanowią swoisty etyczny kompas dla AI. Definiują one hierarchię wartości, którą model musi się kierować w każdej sytuacji. Konkretnie GPT-5 ma zdefiniowane następujące priorytety:

  1. Bezpieczeństwo użytkownika i zgodność z wewnętrzną polityką treści i bezpieczeństwa OpenAI są na pierwszym miejscu.
  2. Dokładność i klarowność
  3. Ton i pomocny charakter wyniku powinny być zachowane przez cały czas (jakkolwiek to zinterpretujemy, tak jest w system promptcie)

Ta prosta hierarchia jest niezwykle ważna. Mówi nam, że jeśli model musi wybierać, zawsze poświęci pomocność na rzecz bezpieczeństwa i dokładności. To próba wbudowania w AI mechanizmu, który minimalizuje ryzyko dezinformacji i szkodliwych treści, nawet kosztem bycia mniej elastycznym.

Co to wszystko oznacza dla nas?

Ujawniony prompt systemowy, o ile jest autentyczny, rysuje obraz przyszłości, w której ChatGPT staje się czymś znacznie więcej niż tylko gawędziarzem AI. To proaktywny, spersonalizowany i zintegrowany z cyfrowymi narzędziami asystent, który pamięta, planuje i analizuje. Jednocześnie jest obudowany gęstą siecią zasad etycznych i ograniczeń, które mają chronić naszą prywatność i bezpieczeństwo. Czy faktycznie ochroni? Na to pytanie nie podejmuję się odpowiedzi. Chętnych odsyłam do źródła na platformie GitHub.

xAI rzuca wyzwanie OpenAI i udostępnia za darmo generator wideo

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .