Mastodon
Zdjęcie okładkowe wpisu Prawo Moore’a oficjalnie martwe. NVIDIA przyznaje, że sztuczna inteligencja zmyśla obraz na Twoim ekranie

Prawo Moore’a oficjalnie martwe. NVIDIA przyznaje, że sztuczna inteligencja zmyśla obraz na Twoim ekranie

0
Dodane: 4 godziny temu

Jeśli czytaliście w sieci nagłówki o tym, że nadchodzące karty graficzne będą „milion razy wydajniejsze”, weźcie głęboki oddech. Prawda, którą NVIDIA przekazała podczas tegorocznej konferencji GDC, jest znacznie bardziej złożona i jednocześnie… o wiele bardziej fascynująca.

Wkraczamy w erę, w której moc samego krzemu przestała mieć znaczenie, a obraz w grach to w przeważającej większości po prostu udana halucynacja algorytmów. Podczas panelu na Game Developers Conference (GDC), John Spitzer, wiceprezes ds. technologii deweloperskich w NVIDIA, rzucił ze sceny słowa, które w branży IT brzmią jak herezja: „Prawo Moore’a nie żyje”. Przedstawiciel technologicznego giganta wprost przyznał, że w czasie naszego życia nie uświadczymy już fizycznego, stukrotnego wzrostu wydajności wynikającego wyłącznie z ulepszania architektury układów scalonych. Fizyka okazała się murem nie do przebicia.

Skąd więc te głośne zapowiedzi o milionkrotnych wzrostach wydajności w porównaniu do popularnej dekadę temu architektury Pascal (GTX 1000)? Haczyk tkwi w słowie „wydajność”. NVIDIA przestała renderować pełny obraz – zaczęła go zgadywać.

ElevenLabs zbroi się w układy NVIDIA Blackwell. Wieloletni kontrakt z Google Cloud

Iluzja, która naśladuje ludzki mózg

Wspomniany gigantyczny, milionkrotny skok dotyczy wyłącznie niezwykle obciążającej techniki Path Tracingu (realistycznego, fizycznego śledzenia promieni światła w czasie rzeczywistym). Aby sprzęt był w stanie temu sprostać bez topienia się w obudowie komputera, NVIDIA całkowicie oddała stery sztucznej inteligencji.

Nowa technologia DLSS 4.5 w połączeniu z generatorem klatek (MFG 6x) to dowód na ostateczną kapitulację klasycznego renderowania. Według danych zaprezentowanych na GDC, w skrajnych przypadkach oprogramowanie tworzy samo z siebie aż 23 z 24 wyświetlanych na ekranie pikseli. Algorytm nie oblicza już mozolnie geometrii i tekstur – on po prostu domyśla się, jak powinna wyglądać kolejna klatka animacji, i wstawia ją w luki.

Brzmi to jak tania sztuczka, ale w gruncie rzeczy inżynierowie zaledwie skopiowali mechanizm działania… ludzkiego mózgu. Nasz umysł to nic innego jak potężna maszyna predykcyjna. Rzeczywistość, której doświadczamy tu i teraz, to w dużej mierze tylko to, co nasz mózg przewiduje, że wydarzy się za ułamek sekundy, na podstawie danych odebranych chwilę wcześniej. Gdybyśmy musieli czekać na pełne, biologiczne „wyrenderowanie” każdego bodźca – zmagając się z ogromną latencją (opóźnieniem) pomiędzy układem ruchu, propriocepcją a naszą świadomością – zwykłe chodzenie byłoby niemożliwe. Od razu byśmy upadli. Karta graficzna z włączonym DLSS robi dziś dokładnie to samo: w ułamku sekundy przewiduje przyszłość, kompensując własne braki wydajnościowe.

Twój prywatny, wirtualny towarzysz

Wizja przyszłości według NVIDII nie kończy się jednak na oszukiwaniu ludzkiego oka sztucznymi pikselami. Spitzer zapowiedział, że już wkrótce standardem staną się gry napędzane lokalnymi, zoptymalizowanymi modelami językowymi (SLM). To oznacza postacie niezależne (NPC) lub wirtualnych asystentów, którzy będą w stanie słuchać komend głosowych gracza, samodzielnie na nie odpowiadać i dynamicznie reagować na sytuację na ekranie – zupełnie bez konieczności łączenia się z chmurą.

Karty graficzne przestają więc być urządzeniami wyłącznie do „rysowania” trójwymiarowych światów. Stają się potężnymi, domowymi centrami sztucznej inteligencji. I choć nagłówki o milionkrotnych wzrostach wydajności można włożyć między marketingowe bajki, to fakt pozostaje faktem – rewolucja dzieje się na naszych oczach. Tyle tylko, że jej większość jest po prostu mistrzowsko przewidziana, a nie policzona.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .