Terrill Dicki
25 Sie 2025 23:56
Together AI wprowadza DeepSeek-V3.1, hybrydowy model oferujący szybkie odpowiedzi i tryby głębokiego rozumowania, zapewniający wydajność i niezawodność dla różnych zastosowań.
Together AI zaprezentowało DeepSeek-V3.1, zaawansowany model hybrydowy zaprojektowany do obsługi zarówno wymagań szybkiej odpowiedzi, jak i złożonych zadań rozumowania. Model, dostępny już do wdrożenia na platformie Together AI, wyróżnia się szczególnie funkcjonalnością dwóch trybów, pozwalającą użytkownikom wybierać między trybem bez myślenia i trybem myślenia, aby zoptymalizować wydajność w zależności od złożoności zadania.
Funkcje i możliwości
DeepSeek-V3.1 został stworzony, aby zapewnić zwiększoną wydajność i niezawodność, według Together AI. Wspiera bezserwerowe wdrożenie z SLA na poziomie 99,9%, zapewniając solidną wydajność w różnorodnych przypadkach użycia. Tryb myślenia modelu oferuje porównywalną jakość do swojego poprzednika, DeepSeek-R1, ale ze znaczącą poprawą szybkości, co czyni go odpowiednim dla środowisk produkcyjnych.
Model został zbudowany na obszernym zbiorze danych treningowych, z 630 miliardami tokenów dla kontekstu 32K i 209 miliardami tokenów dla kontekstu 128K, zwiększając jego zdolność do obsługi rozszerzonych konwersacji i dużych baz kodu. Zapewnia to, że model jest dobrze wyposażony do zadań wymagających szczegółowej analizy i wieloetapowego rozumowania.
Zastosowania w świecie rzeczywistym
DeepSeek-V3.1 doskonale sprawdza się w różnych zastosowaniach, w tym w zadaniach związanych z kodem i agentami wyszukiwania. W trybie bez myślenia efektywnie obsługuje rutynowe zadania, takie jak generowanie punktów końcowych API i proste zapytania. Natomiast tryb myślenia jest idealny do złożonego rozwiązywania problemów, takich jak debugowanie systemów rozproszonych i projektowanie migracji baz danych bez przestojów.
W przypadku przetwarzania dokumentów model oferuje możliwości bez myślenia do ekstrakcji jednostek i podstawowej analizy, podczas gdy tryb myślenia wspiera kompleksową analizę przepływów pracy związanych z zgodnością i wzajemne odniesienia regulacyjne.
Metryki wydajności
Testy porównawcze ujawniają mocne strony modelu w obu trybach. Na przykład, w teście MMLU-Redux tryb myślenia osiągnął 93,7% wskaźnik powodzenia, przewyższając tryb bez myślenia o 1,9%. Podobnie, test GPQA-Diamond wykazał 5,2% poprawę w trybie myślenia. Te metryki podkreślają zdolność modelu do zwiększania wydajności w różnych zadaniach.
Wdrożenie i integracja
DeepSeek-V3.1 jest dostępny poprzez bezserwerowe API Together AI i dedykowane punkty końcowe, oferując specyfikacje techniczne z 671 miliardami całkowitych parametrów i licencją MIT do szerokiego zastosowania. Infrastruktura jest zaprojektowana z myślą o niezawodności, z centrami danych w Ameryce Północnej i zgodnością z SOC 2.
Deweloperzy mogą szybko zintegrować model ze swoimi aplikacjami za pomocą dostarczonego SDK Python, umożliwiając bezproblemowe włączenie możliwości DeepSeek-V3.1 do istniejących systemów. Infrastruktura Together AI wspiera duże modele mieszane ekspertów, zapewniając, że zarówno tryb myślenia, jak i bez myślenia działają wydajnie pod obciążeniami produkcyjnymi.
Wraz z wprowadzeniem DeepSeek-V3.1, Together AI ma na celu dostarczenie wszechstronnego rozwiązania dla firm poszukujących ulepszenia swoich aplikacji opartych na AI zarówno o szybką odpowiedź, jak i głębokie możliwości analityczne.
Źródło obrazu: Shutterstock
Źródło: https://blockchain.news/news/together-ai-launches-deepseek-v3-1-versatile-hybrid-model

