Google Cloud Next ’24 – Google z istną armią rozwiązań AI
Na konferencji Google Cloud Next ’24, zorganizowanej zaledwie 8 miesięcy po ubiegłorocznym wydarzeniu z cyklu prezentującego rozwiązania w chmurze Google, Thomas Curian, CEO Google Cloud zaprezentował istną armię rozwiązań z zakresu AI.
Z czego słynie OpenAI? Odpowiedź na to pytanie znają nawet osoby nieszczególnie śledzące technologiczne nowinki: ChatGPT. Google na konferencji Google Cloud Next ’24 zaprezentowało odmienne podejście, nie pokazując jednego, przełomowego produktu, lecz istną chmurę rozwiązań AI. Jako że mowa o usłudze Google Cloud, to właściwe określenie. Zainteresowanych dokładniejszym przeglądem nowości zachęcam do zapoznania się z nader obszernym wpisem Thomasa Curiana na blogu Google Cloud, tutaj krótko podsumuję zaprezentowane rozwiązania.
Zacznijmy od sprzętu, Google ogłosiło ogólną dostępność chipów TPU v5p (nowy akcelerator AI do trenowania sztucznych inteligencji) oraz Google Axion. Axion to pierwszy niestandardowy procesor oparty na architekturze ARM przeznaczony dla centrum danych. Do publicznej wersji zapoznawczej wchodzi też najnowszy Gemini 1.5 Pro, którego Google określa jako „przełom w rozumieniu długiego kontekstu”. Podkreślaną przez CEO Google Cloud nowością jest też Gemini Code Assist dla programistów, czy rozszerzone funkcje cyberbezpieczeństwa dzięki Gemini w Threat Intelligence.
Google pochwaliło się też hiperkomputerem AI, to nie jest pojedyncza maszyna, co raczej cała skalowalna architektura superkomputerowa wykorzystująca zintegrowany system urządzeń zoptymalizowanych pod kątem wydajności, efektywności energetycznej, maszynowego uczenia, z wiodącymi platformami ML i otwartym oprogramowaniem.
Dla firm i organizacji, które są zainteresowane dostosowaniem modeli AI i trenowaniem własnych agentów AI do własnych potrzeb, Google proponuje platformę Vertex AI, która ma znacząco ułatwić wdrażanie tego typu rozwiązań. Oczywiście nowości nie ominęły Gemini, rozszerzonego o usługi Gemini for Google Cloud oraz Gemini for Workspace. To drugie rozwiązanie to agent AI niejako wbudowany w doskonale nam znane usługi, takie jak Gmail, Dokumenty, Arkusze, etc.
Google pochwaliło się też rozszerzeniem współpracy z firmą NVIDIA. Jej efektem jest m.in. A3 Mega, rozwiązanie oparte na procesorach graficznych H100 Tensor Core, które ma być dostępne w przyszłym miesiącu i ma zapewniać dwukrotnie większą przepustowość na układ graficzny w porównaniu z wcześniejszą instancją A3. Nowością jest też rozwiązanie o nazwie Confidential A3, które ma zapewniać wyższą ochronę danych, ich poufności i integralności, a także ochronę obciążeń AI podczas trenowania AI. O atakach na obciążenia AI pisałem już wcześniej.
ShadowRay to podobno pierwszy atak którego celem jest nie człowiek, a AI
Na początku 2025 roku Google zamierza wprowadzić nową platformę NVIDIA Blackwell w dwóch wersjach: HGX B200 i GB200 NVL72 . HGX B200 zaprojektowano z myślą o najbardziej wymagających zastosowaniach sztucznej inteligencji, analityki danych i obliczeń HPC, natomiast GB200 NVL72 umożliwia wnioskowanie o modelach wielkojęzykowych w czasie rzeczywistym i przeprowadzanie szkoleń na masową skalę w przypadku modeli o skali bilionów parametrów. O nowym chipie TPU v5p wspomniałem wcześniej, Google ogłosiło również dostępność obsługi Google Kubernetes Engine (GKE) dla TPU v5p. Gigant nie omieszkał wspomnieć, że w ciągu ostatniego roku wykorzystanie procesorów graficznych w GKE wzrosło o ponad 900%.
To co wymieniłem, to zaledwie garstka nowości ogłoszonych podczas Google Cloud Next ’24, więcej informacji we wspomnianym wpisie. To już nie jest delikatny rozwój AI, to istna inwazja rozwiązań z tego obszaru. Konsekwencje? Myślę, że niebawem je zaobserwujemy w każdym aspekcie naszego życia.