Zimny prysznic dla entuzjastów AI. Nauka ostrzega: LLM-y nigdy nie będą „myśleć”, bo język to nie inteligencja
Dyrektorzy tacy jak Sam Altman czy Mark Zuckerberg wydają miliardy dolarów na farmy serwerów, obiecując nam, że lada moment stworzą AGI – sztuczną inteligencję dorównującą człowiekowi, która wyleczy raka i rozwiąże kryzys klimatyczny.
Jednak coraz głośniejsze grono ekspertów, poparte twardymi danymi z neurobiologii, mówi: „Stop”. Według nich, obecna ścieżka rozwoju AI to ślepa uliczka, a modele językowe (LLM) nigdy nie przekroczą granicy prawdziwego rozumienia.
Kluczem do zrozumienia tego sceptycyzmu jest rozróżnienie dwóch pojęć, które instynktownie sklejamy w jedno: języka i myślenia. Benjamin Riley, założyciel Cognitive Resonance, w głośnym eseju opublikowanym przez The Verge argumentuje, że dla ludzkiego mózgu są to dwa odrębne procesy. Tymczasem cała obecna rewolucja AI opiera się na błędnym założeniu, że jeśli nauczymy maszynę perfekcyjnie władać językiem, to w konsekwencji nauczymy ją myśleć.
Mózg nie działa jak ChatGPT
Dowody na to płyną wprost z badań nad ludzkim mózgiem. Funkcjonalny rezonans magnetyczny (fMRI) pokazuje wyraźnie: gdy rozwiązujemy zadania logiczne lub matematyczne, aktywują się zupełnie inne obszary mózgu niż wtedy, gdy przetwarzamy język.
Jeszcze mocniejszym dowodem są przypadki osób z afazją – uszkodzeniem mózgu powodującym utratę zdolności językowych. Badania cytowane przez Nature wykazują, że tacy pacjenci, mimo utraty mowy, nadal potrafią rozwiązywać skomplikowane problemy, rozumieć emocje innych czy wykonywać zadania matematyczne. Wniosek? Myślenie może istnieć bez języka. Tymczasem LLM-y to wyłącznie język. To „symulatory funkcji komunikacyjnej”, a nie symulatory procesu poznawczego.
Sufit kreatywności
Drugi problem jest czysto matematyczny. Modele takie jak GPT-4 są systemami probabilistycznymi – przewidują kolejne słowo na podstawie prawdopodobieństwa. Badania opublikowane w Journal of Creative Behavior sugerują, że ta architektura ma „szklany sufit”.
LLM-y doskonale radzą sobie z naśladowaniem przeciętnej ludzkiej kreatywności (np. pisaniem korporacyjnych maili), ale nie są w stanie wejść na poziom ekspercki czy nowatorski. Dlaczego? Bo to, co nowatorskie, jest z definicji mało prawdopodobne statystycznie. Jeśli model spróbuje być zbyt „kreatywny”, zaczyna halucynować i generować bełkot. Jeśli trzyma się statystyki – generuje przeciętność.
„Wykwalifikowany pisarz czy artysta potrafi stworzyć coś prawdziwie oryginalnego. LLM nigdy tego nie zrobi. Zawsze wyprodukuje coś uśrednionego” – twierdzi prof. David H. Cropley.
Maszyna do martwych metafor
W branży technologicznej również widać pęknięcia. Yann LeCun, jeden z „ojców chrzestnych” AI i do niedawna główny naukowiec w Meta, od dawna ostrzega, że LLM-y to ślepa uliczka w drodze do AGI. Jego zdaniem potrzebujemy „modeli świata”, które rozumieją fizykę i związki przyczynowo-skutkowe, a nie tylko statystykę słów.
Jeśli tezy te są słuszne, to obietnice Elona Muska o AI wymyślającym „nową fizykę” czy Sama Altmana o ratowaniu klimatu mogą okazać się mrzonką. LLM-y pozostaną potężnymi narzędziami do remiksowania i recyklingu naszej obecnej wiedzy – jak to określił Riley: „maszynami do martwych metafor”, uwięzionymi na zawsze w słownictwie, na którym zostały wytrenowane.
Aktualizacja głosowa ChatGPT pokazuje, czego możemy oczekiwać od nowej Siri






