Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

Micron dostarcza 192 GB pamięci SOCAMM2 dla centrów danych AI

byKerem Gülen
23 października 2025
in News, Tech
Home News
Share on FacebookShare on Twitter

Technologia mikronów ogłoszony wysyła do klientów próbki modułu pamięci SOCAMM2 o pojemności 192 GB. Nowy produkt, opracowany dla centrów danych AI, wykorzystuje technologię LPDDR5X w celu zwiększenia pojemności i wydajności przy jednoczesnym zmniejszeniu zużycia energii. Moduł, moduł pamięci SOCAMM2 (Small Outline Compression Dołączony), zapewnia 192 gigabajty pojemności, najwyższą dostępną dla tej formy w centrach danych. Oznacza to 50-procentowy wzrost wydajności w porównaniu z poprzednią generacją przy identycznej powierzchni fizycznej. Konstrukcja o dużej gęstości ma kluczowe znaczenie w przypadku serwerów AI o ograniczonej przestrzeni, zapewniając większą ilość pamięci na system w celu obsługi dużych modeli AI. Koncentrując pojemność, moduł bezpośrednio odpowiada na rosnące wymagania dotyczące pamięci współczesnych obciążeń związanych ze sztuczną inteligencją, których efektywne działanie opiera się na ogromnych zbiorach danych i obszernych licznikach parametrów. W swej istocie SOCAMM2 wykorzystuje LPDDR5X DRAM, technologię pochodzącą z sektora mobilnego, obecnie zaadaptowaną do użytku korporacyjnego. Pamięć jest wytwarzana w procesie 1-gamma DRAM firmy Micron, jej najbardziej zaawansowanym węźle produkcyjnym. Proces ten zapewnia poprawę efektywności energetycznej o ponad 20 procent w porównaniu z poprzednimi generacjami. Połączenie architektury małej mocy LPDDR5X z zaawansowanym procesem produkcyjnym tworzy rozwiązanie pamięci zaprojektowane specjalnie w celu zmniejszenia znacznego zapotrzebowania na energię obliczeń AI, przekształcając pamięć DRAM o niskim poborze mocy w komponent klasy centrum danych o zwiększonej wytrzymałości i skalowalności. Wskaźniki wydajności obejmują prędkości przesyłania danych sięgające do 9,6 gigabitów na sekundę (Gb/s), zapewniające przepustowość niezbędną do zapobiegania wąskim gardłom danych w systemach AI. Podstawową cechą jest oszczędność energii, ponieważ moduł zmniejsza zużycie energii o ponad dwie trzecie w porównaniu z równoważnymi wdrożeniami RDIMM (Registered Dual In-line Memory Module). Ponieważ moduły RDIMM są standardem serwerowym, redukcja ta zapewnia znaczne oszczędności operacyjne. Niższy pobór mocy zmniejsza koszty energii elektrycznej i zmniejsza obciążenie systemów chłodzenia centrów danych, co jest głównym czynnikiem wpływającym na całkowity koszt posiadania i zrównoważony rozwój infrastruktury. Zwiększona pojemność pamięci bezpośrednio poprawia wydajność aplikacji AI, szczególnie w przypadku zadań wnioskowania w czasie rzeczywistym. Dostępność 192 GB w jednym module może skrócić „czas do pierwszego tokena” (TTFT) o ponad 80 procent. TTFT to kluczowy wskaźnik opóźnienia w generatywnej sztucznej inteligencji, mierzący opóźnienie, zanim model zacznie generować odpowiedź. W przypadku usług interaktywnych, takich jak asystenci AI, to skrócone opóźnienie jest niezbędne. Znaczące zmniejszenie początkowego opóźnienia pozwala modelom AI znacznie szybciej dostarczać dane wyjściowe, co poprawia czas reakcji i wygodę użytkownika w przypadku aplikacji wrażliwych na opóźnienia. Standard SOCAMM2 jest z natury modułowy, co zapewnia praktyczne korzyści w zarządzaniu dużymi środowiskami komputerowymi. Ta modułowość zwiększa łatwość serwisowania serwera, umożliwiając łatwiejszą i szybszą wymianę lub modernizację poszczególnych modułów pamięci przy minimalnym przestoju systemu. W dużych klastrach centrów danych taka usprawniona konserwacja jest niezbędna do utrzymania wysokiej dostępności. Projekt wyznacza także jasną ścieżkę przyszłej rozbudowy pojemności, umożliwiając operatorom skalowanie zasobów pamięci w celu dostosowania do rosnących wymagań modeli sztucznej inteligencji nowej generacji, chroniąc w ten sposób inwestycje sprzętowe w czasie. Opracowanie pamięci serwerowej o niskim poborze mocy było wspólnym wysiłkiem firmy Nvidiaprowadzone przez okres pięciu lat. To strategiczne partnerstwo pozycjonuje SOCAMM2 jako kluczowe rozwiązanie dla platform AI nowej generacji, a współpraca sugeruje projekt zoptymalizowany pod kątem integracji z ekosystemem Nvidia. Produkt jest skierowany w szczególności na rynek centrów danych AI, gdzie zapotrzebowanie na pamięć rośnie w związku z rozwojem generatywnej sztucznej inteligencji i modeli o masowym kontekście. Te zaawansowane systemy sztucznej inteligencji wymagają do skutecznego działania ogromnej, szybkiej i bardzo wydajnej pamięci, a do spełnienia tej potrzeby moduł został zaprojektowany. Firma Micron rozpoczęła od klientów pobieranie próbek modułu 192 GB, umożliwiając partnerom testowanie i walidację technologii w ich własnych systemach. Planowana produkcja wielkoseryjna będzie zgodna z harmonogramem wprowadzenia na rynek klientów, aby zapewnić dostępność rynkową nowych wdrożeń serwerów. Znaczna efektywność energetyczna modułu wspiera przejście szerszej branży centrów danych w kierunku bardziej zrównoważonej infrastruktury zoptymalizowanej pod kątem zużycia energii. To skupienie pomaga operatorom zarządzać zarówno kosztami finansowymi, jak i środowiskowymi związanymi z szybką globalną ekspansją obciążeń związanych ze sztuczną inteligencją i powiązanym z nimi śladem sprzętowym.


Autor wyróżnionego obrazu

Tags: mikronNvidia

Related Posts

W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now

W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now

16 stycznia 2026
Samsung modernizuje Mobile Gaming Hub, aby naprawić nieprawidłowe wykrywanie gier

Samsung modernizuje Mobile Gaming Hub, aby naprawić nieprawidłowe wykrywanie gier

16 stycznia 2026
Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

Matka jednego z dzieci Elona Muska pozywa xAI w związku z seksualnymi deepfakesami Groka

16 stycznia 2026
Capcom ujawnia rozgrywkę z Resident Evil Requiem i datę premiery w lutym

Capcom ujawnia rozgrywkę z Resident Evil Requiem i datę premiery w lutym

16 stycznia 2026
Paramount+ podnosi ceny subskrypcji i kończy bezpłatne okresy próbne na rok 2026

Paramount+ podnosi ceny subskrypcji i kończy bezpłatne okresy próbne na rok 2026

16 stycznia 2026
Kryzys dostaw pamięci zmusza firmę ASUS do zaprzestania produkcji RTX 5060 Ti

Kryzys dostaw pamięci zmusza firmę ASUS do zaprzestania produkcji RTX 5060 Ti

16 stycznia 2026

Recent Posts

  • Verizon zarobi 20 dolarów: jak już dziś ubiegać się o kredyt za przestój
  • Trump formalizuje umowę eksportową chipów AI z 25% podatkiem od sprzedaży w Chinach
  • Anthropic wyznacza weterankę Microsoft Irinę Ghose na kierownictwo ekspansji w Indiach
  • W ramach dużej aktualizacji Bluesky wprowadza odznakę i tagi Live Now
  • Netflix zabezpiecza globalną umowę o wartości 7 miliardów dolarów na serię filmów Sony Pictures

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.