Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
Subscribe
No Result
View All Result
Dataconomy PL
No Result
View All Result

NVIDIA podnosi wdrażanie sztucznej inteligencji do nowej wydajności dzięki NIM

byKerem Gülen
19 marca 2024
in Bez kategorii

Podczas konferencji GTC firma NVIDIA odsłonięty NVIDIA NIM, a platforma oprogramowania zaprojektowana w celu uproszczenia integracji zarówno niestandardowych, jak i wstępnie wytrenowanych modeli sztucznej inteligencji z ustawieniami operacyjnymi. NIM wykorzystuje wiedzę firmy NVIDIA w zakresie wnioskowania i optymalizacji modeli, oferując przystępne podejście poprzez połączenie dowolnego wybranego modelu z precyzyjnie dostrojonym silnikiem wnioskowania i zamknięcie tej kombinacji w kontenerze, a następnie udostępnienie go jako mikrousługi.

NVIDIA tak twierdzi to, co zwykle wymagałoby od programistów kilku tygodni do miesięcy, jeśli chodzi o wdrożenie kontenerów, można przyspieszyć za pomocą NIM, zwłaszcza w scenariuszach, w których firmie może brakować wewnętrznej wiedzy specjalistycznej w zakresie sztucznej inteligencji. Strategicznym celem firmy NVIDIA w ramach NIM jest wspieranie sieci kontenerów przygotowanych na sztuczną inteligencję, zbudowanych na infrastrukturze sprzętowej firmy, przy czym te wyspecjalizowane mikrousługi pełnią rolę głównego komponentu oprogramowania dla organizacji pragnących przyspieszyć swoje inicjatywy związane ze sztuczną inteligencją.

Obecnie NIM rozszerza wsparcie na modele pochodzące z NVIDIA, A121, Adept, Cohere, Getty Images i Shutterstock, a także modele typu open source firmy Google, Hugging Face, Meta, Microsoft, Mistral AI i Stability AI. NVIDIA aktywnie współpracuje z Amazonem, Google i Microsoftem aby udostępnić mikroserwisy NIM poprzez SageMaker, Kubernetes Engine i Azure AI, odpowiednio. Usługi te mają zostać włączone do platform takich jak Deepset, LangChain i LlamaIndex.

„Wierzymy, że procesor graficzny NVIDIA jest najlepszym miejscem do wnioskowania na temat tych modeli […]i wierzymy, że NVIDIA NIM to najlepszy pakiet oprogramowania i najlepsze środowisko wykonawcze, na którym programiści mogą budować, aby mogli skupić się na aplikacjach dla przedsiębiorstw” – Manuvir Das, szef działu obliczeń dla przedsiębiorstw w firmie NVIDIA, wyraził to podczas konferencji prasowej przed dzisiejsze ogłoszenia.

Jeśli chodzi o silnik wnioskowania, NVIDIA planuje wdrożyć Serwer wnioskowania Tritonwzdłuż TensorRT i TensorRT-LLM dla swojej działalności. Wśród ofert udostępnianych przez firmę NVIDIA za pośrednictwem NIM znajdują się Riva, przeznaczony do dostosowywania modeli mowy i tłumaczeń, cuOpt do usprawniania procesów routingu oraz model Ziemi-2opracowany na potrzeby zaawansowanych symulacji prognozowania pogody i klimatu.

NVIDIA podnosi wdrażanie sztucznej inteligencji do nowej wydajności dzięki NIM
NVIDIA NIM to platforma oprogramowania zaprojektowana w celu uproszczenia integracji zarówno niestandardowych, jak i wstępnie wytrenowanych modeli sztucznej inteligencji z ustawieniami operacyjnymi (Kredyt obrazu)

NVIDIA angażuje się w poszerzanie swojego pakietu usług, stopniowo wprowadzając nowe funkcje. Nadchodzącym dodatkiem jest operator NVIDIA RAG LLM jako usługa NIMktórego celem jest uproszczenie tworzenia generatywnych chatbotów AI, które mogą zawierać dostosowane daneznacznie ułatwiając proces rozwoju.

Podkreślając znaczenie społeczności i partnerstw, na konferencji zwrócono również uwagę na współpracę z wiodącymi firmami, takimi jak Box, Cloudera, Cohesity, Datastax, Dropbox i NetApp obecnie korzystają z usług NIM.

„Ugruntowane platformy korporacyjne znajdują się w kopalni złota danych, które można przekształcić w generatywnych drugich pilotów AI. Te skonteneryzowane mikrousługi AI, stworzone we współpracy z ekosystemem naszych partnerów, stanowią podstawę, z której przedsiębiorstwa z każdej branży mogą stać się firmami zajmującymi się sztuczną inteligencją” – stwierdził Jensen Huang, dyrektor generalny NVIDIA.

Co tak naprawdę robi NVDIA NIM?

Zasadniczo, NIM to kontener wypełniony mikrousługami. W tym kontenerze można uwzględnić dowolny typ modelu, od oprogramowania typu open source po zastrzeżony, pod warunkiem, że działa on na procesorze graficznym NVIDIA — niezależnie od tego, czy jest on hostowany w chmurze, czy po prostu na laptopie. w konsekwencjikontener można wdrożyć w dowolnym środowisku obsługującym kontenery, w tym w konfiguracjach Kubernetes w chmurze, na serwerach Linux, a nawet w bezserwerowych ramach typu „funkcja jako usługa”. NVIDIA ma zamiar wprowadzić w swoim nadchodzącym wydaniu funkcję bezserwerową ai.nvidia.com portal oferujący programistom możliwość nawiązania kontaktu z NIM przed jego wdrożeniem.

Ważne jest, aby pamiętać, Celem NIM nie jest zastąpienie żadnej z poprzednich metodologii dostarczania modeli firmy NVIDIA. Zamiast tego jest to wyspecjalizowany kontener zawierający wysoce udoskonalony model dostosowany do procesorów graficznych NVIDIA wraz z niezbędnymi technologiami zwiększającymi wydajność wnioskowania.

Pilne pytanie dotyczy przejścia do produkcji. W jaki sposób początkowe prototypy opracowane przy naszej pomocy można udoskonalić, aby zapewnić wymierne wyniki biznesowe poprzez wdrożenie produkcyjne z wykorzystaniem tych modeli? NVIDIAwraz z konsorcjum wiodących dostawców danych postrzega NIM jako rozwiązanie tego dylematu. Funkcjonalność bazy danych wektorowych jest kluczowa dla aktywacji RAG, obsługiwana przez różnych dostawców baz danych wektorowych, w tym Apache Lucene, Datastax, Faiss, Kinetica, Milvus, Redis i Weaviate.


Autor wyróżnionego obrazu: Kerem Gülen/DALL-E 3

Related Posts

Wpływ inteligentnych tkanin na taktyczną wydajność odzieży

Wpływ inteligentnych tkanin na taktyczną wydajność odzieży

15 maja 2025
Databricks obstawia duże na serwerze Postgres z przejęciem neonów w wysokości 1 miliarda dolarów

Databricks obstawia duże na serwerze Postgres z przejęciem neonów w wysokości 1 miliarda dolarów

15 maja 2025
Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem

Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem

15 maja 2025
Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność

Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność

15 maja 2025
Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

15 maja 2025
AI YouTube wie, kiedy masz kupić

AI YouTube wie, kiedy masz kupić

15 maja 2025

Recent Posts

  • Wpływ inteligentnych tkanin na taktyczną wydajność odzieży
  • Databricks obstawia duże na serwerze Postgres z przejęciem neonów w wysokości 1 miliarda dolarów
  • Alphaevolve: Jak nowa sztuczna inteligencja Google dąży do prawdy z samokonmitowaniem
  • Tiktok wdraża teksty AlT generowane przez AI, aby uzyskać lepszą dostępność
  • Trump zmusza Apple do przemyślenia swojej strategii iPhone’a w Indiach

Recent Comments

Brak komentarzy do wyświetlenia.
Dataconomy PL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.