Podczas wydarzenia AMD Advancing AI dyrektor generalna Lisa Su weszła na scenę, aby ogłosić serię innowacji skierowanych do klientów korzystających ze sztucznej inteligencji. Od najnowszych procesorów EPYC piątej generacji po akceleratory Instinct nowej generacji, AMD zwiększa ilość sprzętu o wysokiej wydajności do obsługi obciążeń AI. Te nowe technologie obiecują zwiększyć moc przetwarzania AI i usprawnić obciążenia przedsiębiorstw i przetwarzania w chmurze.
AMD Advancing AI 2024 w skrócie
Podzielmy najważniejsze ogłoszenia z Postępująca sztuczna inteligencja wydarzenie.
Procesory EPYC piątej generacji: uwalnianie mocy Zen 5
Rozpoczęcie wydarzenia, Lisa Su wprowadzony Portfolio AMD EPYC piątej generacji, zbudowane wokół zupełnie nowego rdzenia Zen 5. „Zaprojektowaliśmy Zen 5 tak, aby był najlepszy pod względem obciążenia serwerów” – wyjaśnił Su, podkreślając wzrost IPC o 177% w porównaniu z Zen 4. Nowy procesor oferuje do 192 rdzeni i 384 wątków, przesuwając granice wydajności serwera.
Jedną z wyróżniających się cech była elastyczność, jaką oferują te chipy. Su zauważył: „Myśleliśmy o tym z punktu widzenia architektury — jak zbudować najszerszą w branży ofertę procesorów, która obejmie zarówno obciążenia chmurowe, jak i korporacyjne?” Ta równowaga wydajności i wszechstronności ma na celu obsługę wszystkiego, od węzłów głównych AI po wymagające oprogramowanie dla przedsiębiorstw.
Chipy AMD Turion: skalowanie dla chmury i przedsiębiorstw
Podczas wydarzenia zaprezentowano także nowe chipy Turion firmy AMD, zoptymalizowane specjalnie pod kątem różnych typów obciążeń. Su ujawnił dwie kluczowe wersje: wersję 128-rdzeniową przeznaczoną do skalowalnych aplikacji korporacyjnych oraz wersję 192-rdzeniową przeznaczoną do skalowalnego przetwarzania w chmurze. Obydwa są zbudowane z myślą o maksymalnej wydajności na rdzeń, co ma kluczowe znaczenie w przypadku obciążeń korporacyjnych, w których oprogramowanie jest często licencjonowane na rdzeń.
„Wersja 192-rdzeniowa jest naprawdę zoptymalizowana pod kątem chmury” – wyjaśnił Su, podkreślając, że te chipy zapewnią dostawcom usług w chmurze potrzebną im gęstość obliczeniową. AMD porównało także swoje nowe chipy EPYC z konkurencją, pokazując, że EPYC 5. generacji zapewnia do 2,7 razy większą wydajność niż wiodące alternatywy.
AMD Instinct MI325X: procesor graficzny zorientowany na sztuczną inteligencję
Wracając do akceleracji AI, Su ogłoszony AMD Instinct MI325X, najnowszy procesor graficzny firmy zorientowany na sztuczną inteligencję. „Jesteśmy liderem w branży dzięki 256 gigabajtom ultraszybkiej pamięci HBM3E i przepustowości wynoszącej sześć terabajtów na sekundę” – powiedział Su. MI325X jest zbudowany do obsługi wymagających zadań AI, takich jak generatywna sztuczna inteligencja, oferując o 20-40% lepszą wydajność wnioskowania i poprawę opóźnień w porównaniu z poprzednimi modelami.
Oprócz zwiększenia pamięci i wydajności, AMD zaprojektowało MI325X z myślą o łatwości wdrożenia. „Utrzymaliśmy wspólną infrastrukturę” – wspomniała Su, umożliwiającą bezproblemową integrację z istniejącymi systemami. Ułatwi to klientom AI przyjęcie technologii bez konieczności zmiany platform.

Seria AMD Instinct MI350
Wydarzenie także pod warunkiem, że rzut okiem na przyszłość AMD dzięki serii MI350. Premiera zaplanowana na drugą połowę 2025 roku, MI350 wprowadza nową architekturę CDNA 4 i oferuje oszałamiające 288 GB pamięci HBM3E. Według Su CDNA 4 przyniesie „35-krotny pokoleniowy wzrost wydajności AI w porównaniu z CDNA 3”.
Ta nowa architektura została zaprojektowana do obsługi większych modeli AI z większą wydajnością, a jej kompatybilność wsteczna z poprzednimi modelami Instinct zapewnia klientom płynne przejście.
ROCm 6.2: Lepsza wydajność w przypadku obciążeń AI
Su ogłasza, że zaangażowanie AMD w optymalizację wydajności sztucznej inteligencji wykracza poza sprzęt ROCm 6.2najnowsza aktualizacja stosu oprogramowania AI firmy AMD. Nowa wersja zapewnia 2,4 razy większą wydajność w przypadku kluczowych obciążeń związanych z wnioskowaniem AI i 1,8 razy lepszą wydajność w przypadku zadań szkoleniowych AI. Ulepszenia te wynikają z udoskonaleń algorytmów, optymalizacji wykresów i ulepszonych bibliotek obliczeniowych.
„Nasza najnowsza wersja skupia się na maksymalizacji wydajności zarówno w modelach zastrzeżonych, jak i publicznych” – wyjaśnił Su, sygnalizując wysiłki AMD mające na celu utrzymanie konkurencyjności również w obszarze oprogramowania AI.
Kredyty obrazkowe: Kerem Gülen/Ideogram