Mastodon
Zdjęcie okładkowe wpisu AMD rzuca wyzwanie w świecie AI. Nowe akceleratory, otwarta platforma i wsparcie gigantów branży

AMD rzuca wyzwanie w świecie AI. Nowe akceleratory, otwarta platforma i wsparcie gigantów branży

0
Dodane: 1 dzień temu

Podczas wydarzenia „Advancing AI 2025” firma AMD przedstawiła swoją wizję kompleksowego, otwartego ekosystemu sztucznej inteligencji.

Zaprezentowano nowe, potężne akceleratory z serii AMD Instinct MI350, zaktualizowaną platformę oprogramowania ROCm 7 oraz plany rozwoju, które mają zapewnić wiodącą wydajność w skalowalnych rozwiązaniach AI do 2027 roku i później. Firma podkreśliła również silne wsparcie ze strony kluczowych graczy, takich jak Meta, OpenAI, Microsoft i Oracle.

Nowa generacja sprzętu dla ery AI

Najważniejszą informacją zdaniem AMD jest nowa seria akceleratorów AMD Instinct MI350, która ma wyznaczać nowe standardy wydajności i efektywności w dziedzinie generatywnej AI oraz obliczeń o wysokiej wydajności (HPC). Kluczowe cechy nowej serii to:

  • 4-krotny wzrost mocy obliczeniowej AI w porównaniu z poprzednią generacją.
  • 35-krotny skok wydajności w procesach wnioskowania (inferencji).
  • W przypadku modelu MI355X, nawet o 40% więcej generowanych tokenów w przeliczeniu na dolara w porównaniu z konkurencyjnymi rozwiązaniami.
  • AMD zapowiedziało również swoją platformę AI nowej generacji o nazwie kodowej „Helios”. Będzie ona oparta na przyszłych akceleratorach Instinct MI400, które mają zapewnić nawet 10-krotnie wyższą wydajność wnioskowania w modelach typu Mixture of Experts, oraz na procesorach EPYC opartych na architekturze „Zen 6”.

Otwarty ekosystem i oprogramowanie

Kluczowym elementem strategii AMD jest budowa otwartego ekosystemu. Firma zaprezentowała najnowszą wersję swojej otwartej platformy programistycznej ROCm 7, która została zaprojektowana z myślą o rosnących wymaganiach generatywnej AI i ma na celu znaczne ułatwienie pracy deweloperom.

Dodatkowo, AMD ogłosiło szeroką dostępność chmury AMD Developer Cloud, która ma obniżyć barierę wejścia i zapewnić programistom dostęp do w pełni zarządzanego środowiska do szybkiego tworzenia projektów AI.

Wiarygodność nowej platformy potwierdza szerokie grono partnerów. Obecnie siedem z dziesięciu największych firm zajmujących się sztuczną inteligencją wykorzystuje akceleratory AMD Instinct w swoich produkcyjnych systemach. O jakich firmach mowa? Oto one:

  • Meta potwierdziła, że akceleratory MI300X są szeroko stosowane do wnioskowania w modelach Llama 3 i Llama 4
  • OpenAI poinformowało o bliskiej współpracy z AMD i wykorzystaniu MI300X na platformie Azure do badań i obsługi modeli GPT
  • Oracle Cloud Infrastructure (OCI) jest jednym z pierwszych dostawców, który wdraża nową, otwartą infrastrukturę AMD i planuje oferować klastry AI w skali „zetta” z wykorzystaniem nawet 131 072 akceleratorów MI355X.
  • Microsoft ogłosił, że akceleratory MI300X obsługują już zarówno autorskie, jak i otwarte modele AI na platformie Azure.

AMD

Nacisk na efektywność energetyczną

AMD podkreśliło również swoje osiągnięcia w dziedzinie efektywności energetycznej. Seria MI350 przewyższyła pięcioletni cel firmy, osiągając 38-krotną poprawę efektywności energetycznej w węzłach do trenowania AI i HPC. Firma wyznaczyła też nowy cel na 2030 rok: 20-krotne zwiększenie efektywności energetycznej w skali całego racka serwerowego. Ma to umożliwić trenowanie modelu, który dziś wymaga ponad 275 szaf serwerowych, w mniej niż jednej szafie, zużywając przy tym 95% mniej energii elektrycznej.

AMD i HUMAIN łączą siły w inwestycji 10 miliardów USD w infrastrukturę AI

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .