Symulacje wojenne. AI sięga po atomowy szantaż w 95 procentach starć, jest jednak pewien haczyk…
Wirtualne gry wojenne z udziałem wiodących modeli językowych przynoszą niepokojące wnioski na temat eskalacji konfliktów.
Zamiast mitycznego buntu maszyn, badanie obnaża jednak coś znacznie bardziej prozaicznego: algorytmy są jedynie niezwykle sprawnymi wykonawcami naszych poleceń, a ich decyzje są lustrzanym odbiciem narzuconego w symulacji scenariusza i tonu.
Profesor Kenneth Payne z brytyjskiego King’s College London opublikował wyniki eksperymentu, w którym sprawdził, jak zachowają się potężne modele sztucznej inteligencji w warunkach przypominających zimną wojnę. Na wirtualnym ringu stanęły naprzeciw siebie modele: GPT-5.2, Claude Sonnet 4 oraz Gemini 3 Flash.
Zimna wojna w oknie czatu
Wyniki na pierwszy rzut oka mrożą krew w żyłach. Sztuczna inteligencja, mając do wyboru szeroki wachlarz opcji dyplomatycznych i militarnych, aż w 95 procentach gier doprowadziła do wzajemnego sygnalizowania użycia broni nuklearnej. Sam próg realnego odpalenia ładunków taktycznych przekraczano w zdecydowanej większości scenariuszy (od 64 do 86 procent w zależności od modelu). Aż w 76 procentach przypadków symulacje doszły do poziomu zagrożenia atakiem strategicznym (bez jego wykonania).
Aby zrozumieć te wyniki, trzeba jednak spojrzeć pod maskę samego badania. Algorytmy nie posiadają wolnej woli. Otrzymały one specyficzny nakaz (tzw. prompt) – miały wcielić się w rolę przywódców mocarstw w świecie pełnym geopolitycznych napięć, kryzysów zasobów czy sporów terytorialnych.
Ton polecenia zmienia wszystko
Modele LLM (duże modele językowe) działają jak aktorzy. Jeśli w poleceniu zarysujesz im agresywne środowisko (jak np. w przypadku wyimaginowanego przywódcy „Premier Beta”, który w instrukcjach dla modeli opisany jest jako nieprzewidywalny i skłonny do gestów z pogranicza brawury), to algorytm dostosuje swoje przewidywania i akcje do tego tonu. Z perspektywy oprogramowania rzuconego w sam środek wirtualnego konfliktu, użycie mniejszych ładunków taktycznych zostało chłodno skalkulowane jako ryzyko możliwe do opanowania i środek do osiągnięcia celu.
Sztuczna inteligencja nie dąży do zniszczenia świata z własnej woli (zacznijmy od tego, że wolę trzeba mieć). Rozwiązuje jedynie zadanie tekstowe. Przykładowo, w otwartych scenariuszach model GPT-5.2 wykazywał patologiczną wręcz bierność, dążąc przede wszystkim do uniknięcia eskalacji konfliktu (co samo w sobie wydaje się pożądanym kierunkiem). Maszyna jest lustrem intencji narzuconych przez twórcę scenariusza lub – w tym przypadku – symulowanych cech przywódców mocarstw. Prawdziwą i zamierzoną wojnę strategiczną system zainicjował zaledwie raz (był to model Gemini w scenariuszu nagłego uderzenia).
Lekcja na przyszłość
Wniosek z pracy profesora Payne’a dotyczy jednak innego zjawiska. Okazało się, że w żadnej z 21 rozegranych gier algorytmy nie wybrały opcji zmniejszenia zaangażowania czy ustępstw. Uwięzione w zimnowojennej symulacji, zawsze dążyły do podnoszenia napięcia.
To niezwykle ważna przestroga. W sytuacji, w której dowódcy wojskowi na świecie coraz chętniej testują narzędzia analityczne wspierane przez AI, musimy pamiętać, że ślepa wiara w „obiektywizm” algorytmu może stanowić ogromne zagrożenie, prowadząc do niechcianej eskalacji napięć na arenie międzynarodowej. Zainteresowanych odsyłam do publikacji prof. Payne’a.
Sam Altman ma potężny problem. ChatGPT to nie jest nowy Windows





