Microsoft Corp. nabył w tym roku około 485 000 chipów AI „Hopper” firmy Nvidia, co oznacza, że według danych firmy Microsoft jest liderem na rynku ze znaczną marżą „Financial Times”.. Celem firmy jest zwiększenie możliwości sztucznej inteligencji, szczególnie w ramach usług chmurowych Azure. Ta strategiczna inwestycja stawia Microsoft przed konkurentami, takimi jak Meta Platforms, które zakupiły 224 000 chipów, oraz Amazon i Google, które nabyły odpowiednio 196 000 i 169 000 chipów.
Microsoft nabywa 485 000 chipów Nvidia AI, aby ulepszyć platformę Azure
Analitycy z Omdia ujawniają, że zamówienia na chipy Microsoftu przewyższają zamówienia jego najbliższych konkurentów, co wskazuje na jego agresywny nacisk na rozwój infrastruktury sztucznej inteligencji. Microsoft zamierza rozwijać swoje usługi AI, wykorzystując technologie OpenAI, w które zainwestował 13 miliardów dolarów. W tym roku firmy technologiczne wydały łącznie dziesiątki miliardów dolarów na centra danych wyposażone w chipy Nvidia, a prognozy wskazują, że w 2024 r. wydatki na serwery wyniosą 229 miliardów dolarów. Oczekuje się, że sam Microsoft wniesie do tej kwoty 31 miliardów dolarów.
Dominacja Nvidii na rynku chipów AI jest ewidentna – firma może pochwalić się przychodami w wysokości 35,1 miliarda dolarów w trzecim kwartale, napędzanymi głównie sprzedażą centrów danych, która wyniosła 30,8 miliarda dolarów. Pomimo ścisłej kontroli Nvidii nad branżą, konkurenci tacy jak AMD robią postępy. Omdia podaje, że Microsoft zakupił 96 000 chipów AMD MI300, podczas gdy Meta nabyła 173 000 tych samych chipów we współpracy z postępem technologicznym AMD.
Popyt na zaawansowane procesory graficzne przewyższył podaż, umacniając pozycję Nvidii jako kluczowego gracza w rozwoju sztucznej inteligencji. Ta dynamika oznacza, że strategiczne przejęcia chipów przez Microsoft prawdopodobnie posłużą do wzmocnienia jego ram AI. Jednakże chociaż chipy te oferują znaczną moc, wyzwania nadal istnieją. Nvidia spotkała się z doniesieniami o problemach z przegrzewaniem się nadchodzących chipów Blackwell AI, co może potencjalnie mieć wpływ na wdrażające je firmy, w tym Microsoft i Meta.
Startupy, zdaniem Nvidii, są przyszłością sztucznej inteligencji
Pomimo tych wyzwań firma Microsoft w dalszym ciągu intensywnie inwestuje w rozbudowę infrastruktury centrum danych. Alistair Speirs, starszy dyrektor ds. infrastruktury globalnej Azure w firmie Microsoft, zauważył, że budowa efektywnej infrastruktury centrum danych jest kapitałochłonna i wymaga planowania wieloletniego. To przyszłościowe podejście jest kluczowe, zwłaszcza że nasila się konkurencja między gigantami technologicznymi, takimi jak Google, Amazon, a wschodzącymi start-upami, takimi jak Anthropic i xAI.
Rozwój chipów AI jest pod stałą kontrolą, zwłaszcza że firmy technologiczne starają się zmniejszyć zależność od Nvidii. Google znacząco inwestuje w swoje jednostki przetwarzające tensor (TPU), podczas gdy Meta wprowadziła niedawno chipy Meta Training i Inference Accelerator. Dodatkowo Amazon pracuje nad chipami Trainium i Inferentia. Amazon ogłosił plany utworzenia nowego klastra przetwarzania danych, obejmującego setki tysięcy najnowszych chipów Trainium dla firmy Anthropic, co będzie dowodem zaangażowania w infrastrukturę sztucznej inteligencji.
Zależność Microsoftu od chipów Nvidii nie uniemożliwia mu opracowania własnych akceleratorów AI, w których obecnie zainstalowanych jest około 200 000 chipów Maia. Speirs podkreślił konieczność integracji technologii Nvidii z osiągnięciami Microsoftu, aby zapewnić klientom unikalne usługi. Budowa kompleksowej infrastruktury sztucznej inteligencji obejmuje nie tylko solidną moc obliczeniową, ale także zintegrowane komponenty pamięci masowej i warstwy oprogramowania, co podkreśla złożoność architektury systemu.
Autor wyróżnionego obrazu: Sama Torresa/Unsplash