Mastodon
Zdjęcie okładkowe wpisu Absurd sztucznej inteligencji. Miliardy dolarów wydawane na utrzymanie uśpionych procesorów

Absurd sztucznej inteligencji. Miliardy dolarów wydawane na utrzymanie uśpionych procesorów

0
Dodane: 5 godzin temu

Trwa wyścig zbrojeń w branży AI. Firmy technologiczne masowo wykupują najdroższe układy graficzne, by budować potężne centra danych.

Problem polega na tym, że infrastruktura, na którą przeznacza się dziś miliardy dolarów, przez większość czasu pozostaje po prostu niewykorzystana. Najnowsze dane obnażają skalę marnotrawstwa w chmurze.

Wyobraź sobie, że kupujesz flotę dwudziestu supersamochodów, ale dziewiętnaście z nich przez cały rok stoi w zamkniętym garażu. Dokładnie tak wygląda dziś zarządzanie infrastrukturą sztucznej inteligencji. Z najnowszego raportu firmy Cast AI, opartego na analizie dziesiątek tysięcy klastrów w chmurach AWS, Azure i GCP, wyłania się obraz ogromnej niegospodarności. Średnie wykorzystanie drogocennych procesorów GPU wynosi zaledwie 5%.

Strach wygrywa z logiką

Dlaczego giganci technologiczni i startupy rezerwują dwadzieścia razy więcej mocy obliczeniowej, niż realnie potrzebują? Odpowiedź tkwi w psychologii i obawie przed przerwaniem łańcucha dostaw.

Zjawisko tzw. nadmiarowości (overprovisioningu) rośnie z roku na rok. Zamiast optymalizować zasoby, firmy wolą chomikować sprzęt „na wszelki wypadek”, ponieważ terminy dostaw nowych układów są bardzo odległe. Ten lęk napędza samonakręcającą się spiralę rynkową: powszechne gromadzenie zapasów tworzy sztuczny deficyt, a deficyt winduje ceny. Efekt? W styczniu 2026 roku Amazon (AWS) podniósł ceny wynajmu układów H200 o 15%, powołując się właśnie na potężny popyt. To pierwszy taki przypadek od 2006 roku, kiedy to ceny mocy obliczeniowej w chmurze, zamiast spadać, zaczęły rosnąć.

Czas na automatyzację, a nie ręczne sterowanie

Sytuacja jest tym trudniejsza do uzasadnienia, jeśli spojrzymy na nią z perspektywy kosztów. O ile nieużywany procesor CPU to wydatek rzędu centów za godzinę, o tyle leżące odłogiem GPU generuje straty liczone w twardych dolarach.

Raport uwypukla ciekawy paradoks branży: zespoły deweloperskie wdrażają niesamowicie skomplikowane algorytmy AI do zarządzania swoimi aplikacjami, ale rzadko używają narzędzi do optymalizacji własnej infrastruktury. A te przecież istnieją – to m.in. automatyczne skalowanie (rightsizing) czy współdzielenie zasobów. Utrzymywanie zapasowych mocy wydaje się inżynierom po prostu bezpieczniejsze niż ryzyko braku przepustowości przy nagłym skoku obciążenia.

Sektor technologiczny uwielbia opowiadać o wydajności, jaką niesie sztuczna inteligencja. Na zapleczu tej rewolucji wciąż jednak króluje strach przed brakami sprzętowymi. Rozwiązanie jest na stole i wymaga zmiany traktowania efektywności z ręcznego zadania na proces ciągłej automatyzacji. Z danych jasno jednak wynika, że na razie firmy wolą płacić gigantyczne rachunki, niż zmienić swoje zachowawcze nawyki.

Cyfrowa nieśmiertelność na dysku. Startup odtworzył model mózgu muchy i marzy o transferze ludzkiej świadomości

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .