Zaledwie dwa dni temu chiński startup AI Deepseek po cichu upuścił bombę na przytulającą twarz: 685-miliardowy parametrowy model dużych język Deepseek-V3-0324. Podczas gdy niektóre innowacje przybywają z fanfarami, ta wersja była inna. Brak odpraw prasowych. Brak wypolerowanych postów na blogu. Tylko masywny zestaw modeli, licencja MIT i kilka technicznych szeptów, które były wystarczające, aby ustalić społeczność AI.
Teraz, gdy programiści starają się go przetestować, model podniósł już dzwonki alarmowe dla wiodących zachodnich firm AI, takich jak Openai – nie tylko ze względu na surową moc i wydajność, ale także tam, gdzie może działać: a MAC Studio M3 Ultra. Nigdy nie miało być tak proste, aby hostować model tej skali. Jednak wczesne raporty sugerują, że DeepSeek-V3-0324 działa, generując ponad 20 tokenów na sekundę na jednej maszynie. Dla wielu osób z zewnątrz AI jest to zarówno kuszące przełom, jak i poważne budzenie.
Większość wydawnictw AI na dużą skalę jest zgodna z znanym scenariuszem: ogłoszenie zwiastuna, oficjalny artykuł i pchnięcie PR. Deepseek zdecydował jednak na swoje znak towarowy „Under-the-Radar”, po cichu przesyłając 641 GB danych na podstawie licencji MIT. Model puste readme może sugerować refleksję. W rzeczywistości sygnalizuje celowe, pewne siebie stanowisko: „Oto nasz model-rób, co chcesz i powodzenia w prześcignięciu”.
Ten sposób operandi stoi w wyraźnym kontraście z drobiazgowo zaaranżowanym produktem w Dolinie Krzemowej. Badacze AI zwykle oczekują szczegółowej dokumentacji, odniesień do wyników i błyszczących demonstracji. Z drugiej strony Deepseek’s Gambit opiera się na surowej, otwartej dostępności. Chcesz wiedzieć, jak to działa? Pobierz go i przekonaj się sam.
Uruchom na maszynie „konsumenckiej”?
MAC Studio M3 Ultra może nie siedzieć w domowym biurze-jest to urządzenie o wartości 9499 USD i zdecydowanie wysokiej klasy. Mimo to fakt, że Deepseek-V3-0324 może działać lokalnie na tym sprzęcie, jest niezwykły. Współczesne modele porównywalnej wielkości zazwyczaj wymagają znacznie większych klastrów GPU przeżuwających energię w dedykowanych centrach danych. Ta zmiana wymagań dotyczących komputerów może zwiastować nową erę, w której zaawansowana AI nie jest ściśle przywiązana do dużych serwerów korporacyjnych.
Wczesne testy badacza AI Awni Hannun potwierdzają, że 4-bitowe kwantyzowane Wersja Deepseek-V3 może przekraczać 20 tokenów na sekundę w tym systemie. To oszałamiająca prędkość dla modelu o wiele miliardów parametrów. Część tajemnicy leży Architektura Deepseek „Mieszanka ekwipunku (MOE)”który inteligentnie aktywuje tylko ułamek swoich parametrów całkowitych dla dowolnego zadania. Krytycy kiedyś odrzucili Moe jako zbyt wyspecjalizowane; Sukces Deepseek sugeruje, że może to być najbardziej wydajna ścieżka dla AI ogromnej skali.
Pokrywanie standardu branżowego?
Większy nie zawsze jest lepszy, ale Deepseek-V3-0324 jest zarówno: ogromny w zakresie i zaskakująco zwinny. Znany badacz, Xeophon, opublikował swoje wstępne testy wskazujące „ogromny skok we wszystkich wskaźnikach” w porównaniu z poprzednią wersją Deepseek. Twierdzenie, że detronizowało Claude Sonnet 3.5 Przez antropiczne – do niedawna uważane za elitarny system komercyjny – zwraca się do głowy. Jeśli zostanie zweryfikowany, Deepseek może stać w pobliżu szczytu modelowania języka AI.
Różnica w modelach dystrybucji jest równie godna uwagi. Claude Sonnet, podobnie jak wiele zachodnich systemów, zasadniczo wymaga płatnej subskrypcji dla najlepszych ofert. Natomiast zupełnie nowe wydanie Deepseek 0324 to bezpłatnie pobrać na warunkach MIT. Całkowicie deweloperzy mogą eksperymentować bez przekazywania kart kredytowych lub przechodzenia w granice użytkowania – wyraźnie inne podejście, które podkreśla zmieniające się środek ciężkości w sztucznej inteligencji.
Magia stojąca za przełomem Deepeek
Oprócz architektury Moe, Deepseek-V3-0324 zawiera dwa główne skoki techniczne:
- Utrzymująca uwaga wielorakiej (MLA): Ta technologia wzmacnia zdolność modelu do podążania za długim kontekstem, co czyni go znacznie mniej podatnym na upuszczenie wcześniejszych części rozmowy lub tekstu.
- Prognozę wielofunkcyjną (MTP): Podczas gdy większość modeli AI generuje tekst jeden token na raz, MTP Deepseek pozwala mu wytwarzać wiele tokenów w każdej iteracji, przyspieszając moc blisko 80%.
W praktyce optymalizacje te obniżają czas potrzebny na przetworzenie lub wygenerowanie tekstu. Ponieważ Deepseek nie angażuje wszystkich 685 miliardów parametrów dla każdego żądania, może być bardziej wydajny niż mniejsze, ale w pełni aktywowane modele. Simon Willison, szanowana postać w narzędzi programistycznych, poinformował, że 4-bitowa wersja z głębokiej v3-0324 spadł dookoła 352 GB. Ten mniejszy rozmiar sprawia, że jest stosunkowo wykonalny dla specjalistycznych stacji roboczych i niektórych wysokiej klasy systemów osobistych.
Open source: Wielki wyróżnik
Sukcesów Deepseek nie można rozwieść się od większej rozmowy Chińskie firmy AI Obejmowanie licencji na otwarte źródło. Podczas gdy ostoły branżowe, takie jak Openai i Anthropic, utrzymują zastrzeżone wodze w swoich modelach, firmy takie jak Baidu, Alibaba i Tencent dołączyły do Deepeek w uwalnianiu zaawansowanych modeli pod dopuszczalnymi warunkami. Rezultatem jest ekosystem AI zdefiniowany przez wspólny postęp, a nie strzeżony, wyposażony technologia.
Ta strategia łączy się z poszukiwaniem Chin do przywództwa AI. Ograniczenia sprzętowe i ograniczony dostęp do najnowszych układów NVIDIA zmusiły te firmy do wprowadzania innowacji. Wynik? Modele takie jak DeepSeek-V3-0324 są zaprojektowane w celu Excela nawet bez klastrów GPU na najwyższym poziomie. Teraz, gdy te wydajne modele są swobodnie krążące, programiści na całym świecie wykorzystują możliwość budowy przy ułamku zwykłego kosztu.
Deepseek-R2
DeepSeek wydaje się działać w fazach: zaprezentuje model fundamentalny, a następnie kontynuuje wersję „rozumowania”. Plotki Deepseek-R2 może zadebiutować w następnym lub dwóch miesiącach, powtórząc wzór ustalony przez wersję V3 w grudniu, a następnie model R1, który specjalizował się w bardziej zaawansowanym rozwiązywaniu problemów.
Gdyby R2 przewyższył długo oczekiwany GPT-5 Openai, dodatkowo przechyli skale w kierunku przyszłej dominacji sztucznej inteligencji. Wielu weteranów branży zakładało tylko dużych, bogatych w zasoby graczy, którzy mogliby poradzić sobie z złożonością balonowania modeli najwyższego poziomu. Ciche sukces Deepseek kwestionuje to założenie. A ponieważ modele rozumowania zwykle zużywają znacznie bardziej obliczeni niż standardowe, ulepszenia R2 wyróżniałyby radykalne podejście Deepseek.
Jak testować napęd Deepseek-V3-0324
Pobieranie całego 641 GB Zestaw danych z Hugging Face nie jest trywialnym wyczynem. Ale dla wielu programistów najłatwiejszą ścieżką jest dostawcy wnioskowania zewnętrzni, tacy jak hiperboliczne laboratoria lub OpenRouter. Platformy te pozwalają wykorzystać DeepSeek-V3-0324 bez konieczności własnego centrum danych. Obaj obiecali bliskie aktualizacje, gdy Deepseek popycha zmiany.
Tymczasem, Chat.Deepseek.com Prawdopodobnie działa już w nowej wersji – chociaż startup nie potwierdził tego wyraźnie. Wcześni użytkownicy zgłaszają szybsze odpowiedzi i lepszą dokładność, choć kosztem pewnego ciepła konwersacyjnego. Jeśli jesteś programistą, który potrzebuje bardziej formalnych, technicznych wyników, ta zmiana w stylu jest prawdopodobnie dobrodziejstwem. Ale zwykli użytkownicy chcą bardziej przyjaznego, bardziej „ludzkiego” bota na czacie, może zauważyć chłodniejszy ton.
Ewoluująca osobowość
Co ciekawe, wielu testerów skomentowało nowy głos modelu. Wcześniejsze wydania Deepseek były znane ze swojego zaskakująco przystępnego stylu. Zaktualizowana iteracja 0324 ma tendencję do poważnego, precyzyjnego sposobu. Skargi na „robotyczne” lub „zbyt intelektualne” odpowiedzi pojawiają się na forach internetowych, sugerując, że Deepseek obracał się raczej na bardziej profesjonalne otoczenie niż małe rozmowy.
To, czy ten styl sprawia, że model jest mniej lub bardziej zaangażowany, zależy w dużej mierze od użytkowania. W przypadku kodowania lub badań naukowych jasność jego odpowiedzi może być dobrodziejstwo. Tymczasem ogólna publiczność może uznać interakcje sztywniejsze niż oczekiwano. Niezależnie od tego, ta celowa zmiana osobowości sygnalizuje, w jaki sposób najlepsi gracze AI starannie dostrajają swoje modele do określonych segmentów rynku.
Wydanie Deepseek zmusza większe pytanie o to, w jaki sposób należy się udostępnić zaawansowanej sztucznej inteligencji. Open source Z natury zachęca do szerokiej współpracy i szybkiej iteracji. Rozdawając pełny model, Deepseek Cedes Cede Second Control – ale zyskuje armię badaczy, hobbystów i startupów, które przyczyniają się do ekosystemu.
Dla amerykańskich rywali, którzy głównie utrzymują swoją technologię na krótkiej smyczy, podejście Deepseek podnosi dylemat strategiczny. Odzwierciedla to, w jaki sposób otwarty model Androida ostatecznie wyprzedził inne systemy operacyjne, które próbowały utrzymać wszystko zamknięte. Jeśli Deepseek lub innym chińskim przedsięwzięciom AI zdołają powtórzyć to zjawisko w przestrzeni AI, moglibyśmy zobaczyć tę samą nie do powstrzymania falę globalnej adopcji.
Co najważniejsze, otwarty model zapewnia zaawansowaną sztuczną inteligencję nie jest tylko domeną tytanów branżowych. Dzięki odpowiedniemu sprzętowi szeroka gama organizacji może teraz wdrażać wiodące możliwości. To przede wszystkim utrzymuje dyrektorów generalnych Western AI Firmy w nocy.
Fakt, że Deepseek-V3-0324 może niezawodnie działać na jednym, dobrze wyposażonym stacji roboczej podwyższają standardowe myślenie o potrzebach infrastruktury. Według własnych stwierdzeń Nvidii, zaawansowane modele rozumowania wymagają ogromnej mocy i często ograniczają się do wyspecjalizowanych centrów danych. Kontrakcja Deepseek sugeruje, że po skompresowaniu i zoptymalizowaniu sztucznej inteligencji nowej generacji może wślizgnąć się w zaskakująco skromne środowiska.
A jeśli plotki Deepseek-R2 Dopasowuje lub przewyższa zachodnie odpowiedniki, możliwe, że będziemy świadkami rewolucji rozumowania typu open source. To, co kiedyś było ekskluzywną domeną firm z dużym budżetem, może stać się standardowym zasobem dostępnym dla startupów, niezależnych badaczy i codziennych programistów.
Wyróżniony obraz obrazu: Solen Feyissa/Unsplash