Cisco Silicon One G300: 102,4 Tb/s, chłodzenie cieczą i optyka 1.6T. Gra o fizykę centrów danych
W relacji z Cisco Live 2026 wspominaliśmy o premierze układu G300. Teraz, gdy mamy wgląd w pełną dokumentację, widzimy, że gra toczy się nie tylko o przepustowość, ale o fizykę centrów danych.
Cisco wprowadza do gry systemy chłodzone cieczą i nową optykę, które mają rozwiązać problem dławiących się klastrów AI.
Silicon One G300 to układ przełączający o przeustowości 102,4 Tb/s. Choć sama liczba robi wrażenie, w kontekście AI ważniejsze jest to, jak ten ruch jest zarządzany. Cisco wprowadza tutaj architekturę Intelligent Collective Networking, która łączy w pełni współdzielony bufor pakietów z równoważeniem obciążenia opartym na ścieżkach.
Co to daje w praktyce?
W tradycyjnych sieciach ethernetowych przy ogromnym obciążeniu (typowe dla trenowania LLM) dochodzi do mikrozatorów, które powodują, że drogie GPU czekają na dane.
Dzięki nowej architekturze G300 skraca czas realizacji zadań AI (Job Completion Time) nawet o 28%. Wykorzystanie sieci wzrasta o 33% w porównaniu do standardowych rozwiązań bez zoptymalizowanego wyboru ścieżek.
Sprzęt: N9000/8000 i wejście w ciecz
G300 trafi do nowych systemów z serii Cisco N9000 oraz Cisco 8000. Najważniejszą nowością hardware’ową jest dostępność tych platform w wersjach w 100% chłodzonych cieczą. To konieczność, a nie gadżet.
Cisco wylicza, że przejście na chłodzenie cieczą w połączeniu z nową optyką pozwala poprawić efektywność energetyczną całego systemu o blisko 70%. Jeden nowy system zapewnia przepustowość, która wcześniej wymagała spięcia sześciu urządzeń poprzedniej generacji.
Optyka 1.6T i oszczędzanie energii
Wraz z chipem debiutuje nowa optyka, niezbędna do obsłużenia takiej „rury” z danymi:
- Optyka 1.6T OSFP: obsługuje połączenia 1,6T (1,6 terabita na sekundę) między przełącznikiem a kartą sieciową (NIC) oraz wewnątrz klastra.
- 800G LPO (Linear Pluggable Optics): to rozwiązanie dla architektury scale-out, które usuwa z toru sygnałowego elementy retimingu (DSP), co zmniejsza zużycie energii przez same moduły optyczne o 50%.
Dlaczego to jest kluczowe dla AI?
Trenowanie modeli AI (jak GPT-5 czy Gemini) wymaga łączenia tysięcy kart graficznych (GPU) w jeden wielki superkomputer. Te karty muszą wymieniać się danymi non-stop. Jeśli sieć jest za wolna, superdrogie procesory NVIDIA stoją i czekają na dane, zamiast liczyć. Optyka 1.6T (w formacie OSFP, o którym wspomina Cisco) pozwala:
- Zmniejszyć liczbę kabli: zamiast ciągnąć wiązkę 4 kabli po 400G, masz jeden moduł 1.6T.
- Oszczędzić prąd: przesłanie tej samej ilości danych w nowszej technologii zużywa mniej energii na każdy bit (szczególnie w wersji LPO – Linear Pluggable Optics, o której wspominam wyżej, gdzie wywalono prądożerne układy DSP).
- Nakarmić GPU: nowe akceleratory (jak nadchodzące układy NVIDIA czy AMD) mają tak potężne moce obliczeniowe, że starsze złącza 400G/800G zaczynają je ograniczać. 1.6T to autostrada budowana pod te przyszłe bolidy.
Same liczby niewiele mówią bez skali zatem dla kontekstu, w skrócie: 1.6T to rura o średnicy, która pozwala „przepłynąć” całemu internetowi małego kraju w ułamku sekundy przez jeden wtyk. Teraz chyba robi właściwe wrażenie, prawda?
Nexus One widzi wszystko
Cisco spina to wszystko platformą Nexus One. Kluczowa nowość to natywna integracja ze Splunkiem (planowana na marzec), która pozwoli na analizę telemetrii sieciowej w kontekście obciążenia GPU. Chodzi o to, by administrator widział nie tylko, że „sieć jest obciążona”, ale konkretnie, które zadanie AI powoduje zator.
Zarówno ogłoszone układy Silicon One G300, jak i oparte na nich systemy oraz nowa optyka, trafią do sprzedaży jeszcze w tym roku.







