Deepseek, chińskie laboratorium AI, ulepszyło swój model AI Przysłzaprojektowany do rozwiązywania dowodów i twierdzeń związanych z matematyką, z wydaniem wersji V2 na platformie programistycznej AI Hulging Face w środę.
Najnowsza wersja wydaje się być zbudowana na modelu V3 DeepSeek, który oferuje 671 miliardów parametrów i wykorzystuje architekturę mieszanki ekspertów (MOE). Ta architektura umożliwia modelu rozkładanie złożonych zadań na subtask i delegować je specjalistycznym „eksperckim” komponentom.
W kontekście modeli AI parametry są szorstką miarą możliwości rozwiązywania problemów modelu. Deepseek Ostatnia zaktualizowana przysłowie w sierpniu, opisując go jako niestandardowy model formalnego twierdzenia udowodnienia i matematycznego rozumowania.
Ulepszenie pojawia się, gdy Deepseek nadal rozszerza swoją ofertę AI. W lutym Reuters po raz pierwszy po raz pierwszy rozważa zebranie finansowania zewnętrznego. Niedawno Deepseek wydał ulepszoną wersję swojego modelu V3 ogólnego przeznaczenia i oczekuje się, że wkrótce zaktualizuje swój model „rozumowania” R1.