AGI? Najpierw nauczmy AI nie używać pauz. „Mały sukces” Altmana obnaża, jak daleko nam do superinteligencji
Dwa dni po premierze GPT-5.1, Sam Altman, CEO OpenAI, świętował na platformie X (dawniej Twitter).
Nie ogłosił jednak przełomu w drodze do AGI (Sztucznej Inteligencji Ogólnej). Ogłosił, że ChatGPT w końcu nauczył się… nie używać pauzy (—), gdy się go o to poprosi w ustawieniach.
Ten „mały, ale radosny sukces”, jak to ujął Altman, wywołał falę kpin, ale też otworzył poważną dyskusję. Jak zauważa Benj Edwards z ArsTechnica, ten drobiazg pokazuje, jak iluzoryczna jest nasza kontrola nad AI i jak odległa jest wizja prawdziwej superinteligencji.
Problem, który znają wszyscy użytkownicy
Jeśli korzystasz z ChatGPT, znasz ten ból. Chodzi o pauzę (zwaną fachowo myślnikiem lub em dash, symbol, który na każdym komputerze z Windows wbijesz wstukując [lewy Alt] + [151] z klawiatury numerycznej; na Macach jest to prostsze, jeżeli korzystasz z klawiatury Polskiej Pro wciskasz [Option] i [-] czyli minus, na amerykańskiej [Shift]+[Option]+[-]).
Pauza to znak, który modele AI upodobały sobie aż do przesady. Stała się ona tak powszechnym znakiem rozpoznawczym tekstów generowanych przez AI, że wielu redaktorów usuwa ją z automatu. Przez długi czas, w zasadzie od debiutu ChatGPT, użytkownicy bezskutecznie próbowali zmusić AI do zaprzestania jej używania. Prośby w „Custom Instructions” były notorycznie ignorowane.
Jeden z użytkowników X świetnie podsumował „sukces” Altmana:
„Fakt, że minęły 3 lata od startu ChatGPT, a wy dopiero teraz zdołaliście zmusić go do posłuszeństwa w tak prostej sprawie, mówi wiele o tym, jak małą macie nad nim kontrolę i jak mało rozumiecie jego wewnętrzne działanie. To nie jest dobry prognostyk na przyszłość”.
The fact that it's been 3 years since ChatGPT first launched, and you've only just now managed to make it obey this simple requirement, says a lot about how little control you have over it, and your understanding of its inner workings. Not a good sign for the future.
— Dagan Shani (@daganshani1) November 14, 2025
Dlaczego AI tak kocha pauzy?
Wygląda na to, że… nikt (nawet w najbardziej skrytych gabinetach OpenAI) nie wie na 100%, ale najbardziej prawdopodobna teoria jest prosta. LLM-y to statystyczne papugi. Ich styl jest „wygładzoną średnią” miliardów tekstów, na których je trenowano.
A dane te to m.in. formalne artykuły, literatura (w tym XIX-wieczna, gdzie pauzy były modne) i blogi, gdzie ten znak interpunkcyjny jest nadużywany. Model wyuczył się, że tekst z pauzą wygląda „mądrzej” i „bardziej profesjonalnie”.
Dlaczego tak trudno to naprawić?
I tu dochodzimy do sedna problemu, który genialnie obnaża Edwards. Gdy programista pisze tradycyjny kod, instrukcja jest deterministyczna. Komenda IF (instrukcja=”nie używaj pauzy”) THEN (nie generuj znaku '—’) zadziała w 100% przypadków. Tyle, że AI to sieci neuronowe i mnożenie macierzy, a nie deterministyczny kod.
W LLM-ie nie ma „logiki”. Instrukcja „nie używaj pauz” to tylko kolejny tekst dodany do gigantycznego równania matematycznego. Ta instrukcja nie tworzy twardej reguły. Ona tylko zmienia prawdopodobieństwo statystyczne, sprawiając, że token (fragment słowa) odpowiadający pauzie staje się mniej prawdopodobny do wylosowania. Ale nie niemożliwy.
Instrukcja „bądź miły” walczy ze statystyką treningową „bądź neutralny”. Instrukcja „nie używaj pauz” walczy z miliardami tekstów, które tych pauz używały. Czasem instrukcja wygrywa, czasem przegrywa.
Co tak naprawdę świętuje Altman?
Świętuje fakt, że po długim procesie dostrajania (tzw. fine-tuning lub bardziej wyrafinowany RLHF, czyli Reinforcement Learning from Human Feedback), w GPT-5.1 udało się wreszcie nadać instrukcjom użytkownika taką „wagę” w obliczeniach, że są one w stanie przebić statystyczne nawyki modelu.
Ironia polega na tym, że nie ma gwarancji, że problem nie wróci. Dostrajanie sieci neuronowych to nie jest precyzyjna inżynieria. To bardziej sztuka. Kolejna aktualizacja w przyszłości, która poprawi np. zdolności kodowania, może przez przypadek ponownie zepsuć pauzy. To jak operacja na otwartym mózgu, bardzo trudno próbując coś naprawić, nie uszkodzić czegoś innego.
Jeśli więc największa firma AI na świecie przez trzy lata walczyła, by kontrolować znak interpunkcyjny, to wizja AGI – prawdziwej, rozumiejącej inteligencji – jest prawdopodobnie znacznie dalej, niż chcieliby przyznać marketingowcy z Doliny Krzemowej.
OpenAI cicho wypuszcza GPT-5.1. Koniec z „robotycznym” tonem – teraz Ty wybierasz osobowość AI






