Branża półprzewodników jest świadkiem fascynującej rywalizacji, ponieważ Advanced Micro Devices (AMD) rzuca wyzwanie dominacji NVIDII na rynku akceleratorów AI. Dzięki Instinct MI300X firma AMD jest gotowa zburzyć status quo, oferując opłacalną i wydajną alternatywę dla NVIDII H100. Gwałtowny wzrost popytu na układy AI, napędzany eksplozywnym wzrostem adopcji AI i ekspansją centrów danych, jeszcze bardziej nasila tę konkurencję.
W szybko rozwijającej się dziedzinie technologii układów scalonych AI, AMD czyni znaczące postępy w kwestionowaniu dominacji NVIDIIPodczas gdy NVIDIA obecnie kontroluje lwią część rynku, szacuje się, że ponad 80%AMD stale zyskuje na popularności, szczególnie w sektorze centrów danych. Ten wzrost jest napędzany przez silny popyt na ich układ MI300X AI, z prognozowana sprzedaż osiągając imponującą kwotę 4 miliardów dolarów, co stanowi około 15% przewidywanych przychodów AMD.
Jeśli chodzi o wydajność, układy H100 firmy NVIDIA są powszechnie uznawane za doskonałe w zastosowaniach wymagających sztucznej inteligencji, szczególnie w zakresie szkoleńJednakże procesor AMD MI300X udowadnia swoją wartość w określonych zadaniach związanych ze sztuczną inteligencją, szczególnie w zakresie wnioskowania, gdzie niektórzy twierdzą, że przewyższa nawet flagowy procesor NVIDII H100.
Jeśli chodzi o partnerstwa branżowe i adopcję, NVIDIA może pochwalić się dobrze ugruntowaną współpracą z głównymi dostawcami usług w chmurze i cieszy się szeroką akceptacją w różnych sektorach. Z drugiej strony, AMD aktywnie nawiązuje partnerstwatakie jak sojusz z TensorWave, w celu poszerzenia zasięgu i udoskonalenia technologii pod kątem zadań skoncentrowanych na sztucznej inteligencji.
Dynamiczna interakcja między tymi dwoma gigantami obiecuje ekscytującą przyszłość dla rynku układów AI. Rozmawiałem z Darrickiem Hortonem, CEO w Fala Tensorowaaby zrozumieć, dlaczego wszystkie swoje pomysły na sztuczną inteligencję postawiła na AMD.
Instinct MI300X firmy AMD: Czy zmieni zasady gry?
MI300X ma większą pojemność pamięci niż H100, co czyni go korzystnym dla konkretnych zadań AI, zwłaszcza tych obejmujących duże modele językowe. Podczas gdy H100 ogólnie oferuje większą moc obliczeniową, MI300X jest obiecujący w zadaniach wnioskowania i większych rozmiarach partii.
Chociaż dokładne ceny nie są publiczne, MI300X jest podobno tańszy, potencjalnie oferując lepszy stosunek ceny do wydajności. Jednak platforma CUDA firmy NVIDIA cieszy się szerszą adopcją i bardziej dojrzałym ekosystemem oprogramowania.
„Jedną z wyróżniających się cech MI300X jest jego doskonała architektura pamięci” — powiedział mi Horton. „Dzięki nawet 192 GB zunifikowanej pamięci HBM3 MI300X znacznie przewyższa H100, umożliwiając bezproblemową obsługę większych modeli i zestawów danych bezpośrednio na akceleratorze. Zmniejsza to potrzebę dostępu do pamięci poza układem, co może być wąskim gardłem w obciążeniach AI, co prowadzi do poprawy wydajności, możliwości buforowania i mniejszych opóźnień”.
Inne względy, które skłoniły TensorWave do współpracy z AMD, to efektywność energetyczna i ekosystem oprogramowania AMD.
„MI300X został zaprojektowany z myślą o efektywności energetycznej, zapewniając wyjątkową wydajność na wat” — powiedział Horton. „Jest to szczególnie ważne, ponieważ obciążenia AI są skalowalne, co umożliwia przedsiębiorstwom osiągnięcie wysokiej wydajności bez eskalacji kosztów energii. Ta wydajność jest kluczowym czynnikiem w przypadku wdrożeń na dużą skalę, w których koszty operacyjne mogą być poważnym problemem. Platforma AMD ROCm (Radeon Open Compute) nadal dojrzewa i oferuje solidne wsparcie dla obciążeń AI i HPC. otwartoźródłowy charakter ROCm zapewnia programistom elastyczność i możliwość optymalizacji aplikacji pod kątem MI300X, co staje się coraz ważniejsze w miarę jak modele sztucznej inteligencji stają się coraz bardziej złożone”.
Hybrydowa architektura MI300X łączy możliwości CPU i GPU, co pozwala optymalizować wydajność w różnych obciążeniach i skutecznie skalować w wielu akceleratorach. Wszystko to tworzy obraz atrakcyjnej alternatywy dla NVIDIA.
Oczywiście AMD i NVIDIA stosują zupełnie inne podejście do budowy systemów GPU na dużą skalę. AMD preferuje otwarty standard PCIe 5.0, oferujący szerszą kompatybilność i potencjalnie niższe koszty, podczas gdy NVIDIA polega na swoim połączeniu NVLink o dużej przepustowości, aby poprawić wydajność w niektórych scenariuszach, ale z potencjalnymi ograniczeniami skalowalności i wyższymi kosztami.
Misja demokratyzacji dostępu do sztucznej inteligencji
Model cenowy TensorWave wydaje się być ukierunkowany na demokratyzację dostępu do infrastruktury AI o wysokiej wydajności, a zgłaszane niższe koszty dzierżawy procesorów graficznych AMD za pośrednictwem platformy mogą przyczynić się do zwiększenia dostępności zaawansowanych technologii AI dla szerszego grona organizacji.
„Jeśli chodzi o zakup GPU, to nie jest to proste zamówienie za pomocą jednego kliknięcia” — powiedział Horton. „Proces ten jest często opóźniony przez zaległości produkcyjne, co sprawia, że termin dostawy jest nieprzewidywalny. Ponadto początkowe koszty mogą być zaporowe. Zbudowaliśmy już nasze centra danych z tysiącami procesorów graficznych MI300X, gotowych do wdrożenia, gdy Ty będziesz. Ale powiedzmy, że uda Ci się zdobyć sprzęt. Teraz stajesz przed wyzwaniem zbudowania, zarządzania i utrzymania tego sprzętu oraz całej infrastruktury centrum danych. To czasochłonny i kosztowny proces, z którym nie każdy jest w stanie sobie poradzić. Dzięki naszej usłudze w chmurze te zmartwienia znikają”.
Podczas gdy NVIDIA zajmuje obecnie dominującą pozycję, Instinct MI300X firmy AMD i innowacyjne podejście firmy TensorWave mają szansę zrewolucjonizować rynek akceleratorów AI.
„NVIDIA była dominującą siłą na rynku akceleratorów AI, ale uważamy, że nadszedł czas, aby to zmienić” — powiedział Horton. „Chcemy dać rynkowi opcjonalność. Chcemy, aby twórcy uwolnili się od uzależnienia od dostawcy i przestali być zależni od narzędzi niebędących open source, w których są zdani na łaskę dostawcy. Wierzymy w wybór. Wierzymy w opcjonalność open source. Wierzymy w demokratyzację obliczeń. Te zasady były kluczowe, gdy budowaliśmy i koncentrowaliśmy naszą chmurę wokół akceleratorów AMD MI300X”.
TensorWave uważa, że jest to istotne, gdyż coraz więcej małych i średnich firm oraz dużych przedsiębiorstw zaczyna wykorzystywać narzędzia sztucznej inteligencji w taki sam sposób, w jaki robią to korporacje.
„Pomyśl o firmach księgowych, kancelariach prawnych i instytucjach badawczych” — powiedział Horton. „Mają ogromne ilości danych historycznych. Jeśli potrafią budować narzędzia AI, które uczą się z tych zestawów danych, potencjał pozytywnych wyników biznesowych jest ogromny. Jednak aby to osiągnąć, będziesz musiał przetworzyć duże zestawy danych (ponad 250 000 tokenów), co będzie wymagało znacznej pamięci i wydajności sprzętu. I nie jest to tylko teoria — przedsiębiorstwa aktywnie pracują nad rozwiązaniami o długim kontekście już teraz”.
Odważny zakład w grze o wysoką stawkę
TensorWave uważa również, że AMD stanie się nowym standardem, gdy LLM-y osiągną nowe szczyty, co jest jednym z głównych powodów, dla których firma postawiła wszystkie swoje środki na AMD (metafora blackjacka zamierzona).
„W miarę jak modele AI stają się coraz większe i bardziej wymagające pamięci, rozwiązania NVIDIA mają trudności z konkurowaniem z MI300X pod względem stosunku ceny do wydajności. Weźmy na przykład model Llama 3.1 405B firmy Meta. Ten model może działać na mniej niż jednym pełnym węźle MI300X (8 GPU), podczas gdy H100B wymaga około dwóch węzłów. Stawiamy duże zakłady, że społeczność AI jest gotowa na coś lepszego — szybszego, bardziej opłacalnego, open-source i łatwo dostępnego.
Podwajając swoją inwestycję w AMD, TensorWave patrzy w przyszłość, rozwijając nowe możliwości, które mają na celu jeszcze większą demokratyzację dostępu do mocy obliczeniowej.
„Opracowujemy skalowalne mechanizmy buforowania, które radykalnie zwiększają wydajność obsługi długich kontekstów” — powiedział Horton. „Dzięki temu użytkownicy mogą wchodzić w interakcje z większymi czatami i dokumentami przy znacznie zmniejszonych opóźnieniach, zapewniając płynniejsze i bardziej responsywne doświadczenia nawet w najbardziej wymagających aplikacjach AI”.
Rozwiązanie jest obecnie w fazie beta, a firma TensorWave planuje udostępnić je użytkownikom w czwartym kwartale 2024 roku.
Zalety techniczne MI300X w połączeniu z naciskiem TensorWave na demokratyzację i opłacalność stanowią atrakcyjną alternatywę dla przedsiębiorstw poszukujących wydajnych rozwiązań z zakresu sztucznej inteligencji.
Postaw stawkę na lepszą przyszłość
„Zobacz, podnieś i zadzwoń” między AMD i NVIDIA niewątpliwie będzie napędzać dalsze postępy w technologii GPU i aplikacjach AI w całej branży. W miarę jak popyt na AI będzie nadal rósł, obie firmy odegrają kluczową rolę w kształtowaniu przyszłości tej transformacyjnej technologii.
Czy AMD ostatecznie prześcignie NVIDIĘ, pozostaje niewiadome. Jednak ich obecność na rynku sprzyja zdrowej konkurencji, innowacjom i ostatecznie przynosi korzyści całemu ekosystemowi AI. Walka o supremację AI jest daleka od zakończenia, a świat z niecierpliwością obserwuje, jak ci dwaj technologiczni tytani nadal przesuwają granice tego, co jest możliwe.