Anthropic inwestuje miliardy w układy Google TPU. To strategiczny zwrot w wyścigu zbrojeń AI
Anthropic, główny konkurent OpenAI i twórca rodziny modeli Claude, ogłosił gigantyczną rozbudowę swojej infrastruktury.
Firma planuje wdrożyć nawet milion specjalistycznych układów AI Google Cloud TPU, w ramach umowy wartej dziesiątki miliardów dolarów. Ten ruch to jeden z największych jednorazowych zakupów akceleratorów AI w historii i sygnalizuje strategiczne zmiany w tym, jak budowane są systemy AI na masową skalę.
Rozbudowa, która ma dodać ponad gigawat mocy obliczeniowej w 2026 roku, jest bezpośrednią odpowiedzią na lawinowy wzrost zapotrzebowania na usługi Anthropic. Firma obsługuje już ponad 300 000 klientów biznesowych, a liczba dużych kontraktów (o wartości ponad 100 000 USD rocznie) wzrosła siedmiokrotnie w ciągu ostatniego roku. Pokazuje to, że wdrażanie Claude w korporacjach przeszło z fazy eksperymentów do etapu produkcyjnego, gdzie niezawodność, koszt i wydajność infrastruktury nie podlegają negocjacjom.
Strategia wielu platform
Co najciekawsze, wielomiliardowa umowa z Google nie oznacza zerwania dotychczasowych sojuszy. Anthropic wyraźnie podkreśla, że prowadzi strategię „zdywersyfikowanych obliczeń”. Firma działa jednocześnie na trzech różnych platformach sprzętowych: układach TPU od Google, procesorach Trainium od Amazona oraz dominujących na rynku kartach GPU od Nvidii. Dyrektor finansowy Anthropic, Krishna Rao, potwierdził, że Amazon (AWS) pozostaje ich głównym partnerem chmurowym i szkoleniowym.
To pragmatyczne podejście pokazuje, że w świecie AI nie ma jednego uniwersalnego rozwiązania. Inne zasoby obliczeniowe są optymalne do trenowania gigantycznych modeli od zera, inne do ich późniejszego dostrajania (fine-tuning), a jeszcze inne do masowego i taniego serwowania odpowiedzi (inferencji). Dla liderów IT w korporacjach to jasny sygnał: budowanie długoterminowej strategii AI w oparciu o jednego dostawcę (vendor lock-in) staje się coraz bardziej ryzykowne.
Ekonomia skali i bezpieczeństwo
Według Google, Anthropic zdecydował się na tak dużą inwestycję w układy TPU ze względu na ich „wysoki stosunek ceny do wydajności”. Układy TPU (Tensor Processing Units), stworzone specjalnie do obliczeń sieci neuronowych, często oferują przewagę w przepustowości i efektywności energetycznej nad kartami GPU ogólnego przeznaczenia. Wzmianka o „gigawacie mocy” nie jest przypadkowa – przy tej skali, zużycie energii i koszty chłodzenia stają się równie krytyczne, jak sama cena chipów.
Anthropic mocno zaznacza również inny cel inwestycji. Tak ogromna moc obliczeniowa ma być przeznaczona na „dokładniejsze testowanie, badania nad bezpieczeństwem i wyrównaniem (alignment) oraz odpowiedzialne wdrażanie” modeli. W branży, w której Anthropic pozycjonuje się jako lider odpowiedzialnej AI, jest to kluczowa deklaracja, mająca budować zaufanie klientów z sektorów regulowanych, jak finanse czy opieka zdrowotna.
To posunięcie to kolejny etap wyścigu zbrojeń w infrastrukturze AI, w którym Anthropic ściga się z OpenAI (wspieranym przez Microsoft) i Metą. Zabezpieczając tak duże moce obliczeniowe u różnych dostawców, firma nie tylko zapewnia sobie ciągłość działania, ale także wysyła rynkowi sygnał, że era dominacji jednej architektury chipów AI może powoli dobiegać końca.
Anthropic uczy AI asertywności. Claude może teraz zakończyć rozmowę z użytkownikiem






