Terrill Dicki
25 ago 2025 23:56
Together AI Introduce DeepSeek-V3.1, un Modello Ibrido che Offre Risposte Rapide e Modalità di Ragionamento Profondo, Garantendo Efficienza e Affidabilità per Varie Applicazioni.
Together AI ha svelato DeepSeek-V3.1, un modello ibrido avanzato progettato per soddisfare sia i requisiti di risposta rapida che i compiti di ragionamento complesso. Il modello, ora disponibile per l'implementazione sulla piattaforma di Together AI, è particolarmente noto per la sua funzionalità a doppia modalità, che consente agli utenti di scegliere tra modalità non-thinking e thinking per ottimizzare le prestazioni in base alla complessità del compito.
Funzioni e Capacità
DeepSeek-V3.1 è creato per fornire efficienza e affidabilità migliorate, secondo Together AI. Supporta l'implementazione serverless con un SLA del 99,9%, garantendo prestazioni robuste in una varietà di casi d'uso. La modalità thinking del modello offre una qualità paragonabile al suo predecessore, DeepSeek-R1, ma con un significativo miglioramento nella velocità, rendendolo adatto per ambienti di produzione.
Il modello è costruito su un sostanziale dataset di addestramento, con 630 miliardi di token per contesto 32K e 209 miliardi di token per contesto 128K, migliorando la sua capacità di gestire conversazioni estese e grandi basi di codice. Questo assicura che il modello sia ben equipaggiato per compiti che richiedono analisi dettagliate e ragionamento multi-step.
Applicazioni nel Mondo Reale
DeepSeek-V3.1 eccelle in varie applicazioni, inclusi compiti di codice e agente di ricerca. In modalità non-thinking, gestisce efficientemente attività di routine come la generazione di endpoint API e semplici query. Al contrario, la modalità thinking è ideale per la risoluzione di problemi complessi, come il debugging di sistemi distribuiti e la progettazione di migrazioni di database a zero tempi di inattività.
Per l'elaborazione dei documenti, il modello offre capacità non-thinking per l'estrazione di entità e l'analisi di base, mentre la modalità thinking supporta l'analisi completa dei flussi di lavoro di conformità e il riferimento incrociato normativo.
Metriche di Prestazione
I test di benchmark rivelano i punti di forza del modello in entrambe le modalità. Ad esempio, nel benchmark MMLU-Redux, la modalità thinking ha raggiunto un tasso di successo del 93,7%, superando la modalità non-thinking dell'1,9%. Allo stesso modo, il benchmark GPQA-Diamond ha mostrato un miglioramento del 5,2% in modalità thinking. Queste metriche sottolineano la capacità del modello di migliorare le prestazioni in vari compiti.
Implementazione e Integrazione
DeepSeek-V3.1 è disponibile tramite l'API serverless di Together AI e endpoint dedicati, offrendo specifiche tecniche con 671 miliardi di parametri totali e una licenza MIT per un'applicazione estesa. L'infrastruttura è progettata per l'affidabilità, con data center nordamericani e conformità SOC 2.
Gli sviluppatori possono integrare rapidamente il modello nelle loro applicazioni utilizzando l'SDK Python fornito, consentendo l'incorporazione senza soluzione di continuità delle capacità di DeepSeek-V3.1 nei sistemi esistenti. L'infrastruttura di Together AI supporta grandi modelli mixture-of-experts, garantendo che entrambe le modalità thinking e non-thinking operino efficientemente sotto carichi di lavoro di produzione.
Con il lancio di DeepSeek-V3.1, Together AI mira a fornire una soluzione versatile per le aziende che cercano di migliorare le loro applicazioni basate su IA con capacità sia di risposta rapida che di analisi profonda.
Fonte dell'immagine: Shutterstock
Fonte: https://blockchain.news/news/together-ai-launches-deepseek-v3-1-versatile-hybrid-model



