Terrill Dicki
25/08/2025 23:56
Together AI presenta DeepSeek-V3.1, un modelo híbrido que ofrece respuestas rápidas y modos de razonamiento profundo, garantizando eficiencia y fiabilidad para diversas aplicaciones.
Together AI ha presentado DeepSeek-V3.1, un avanzado modelo híbrido diseñado para satisfacer tanto requisitos de respuesta rápida como tareas de razonamiento complejo. El modelo, ahora disponible para implementación en la plataforma de Together AI, destaca particularmente por su funcionalidad de modo dual, permitiendo a los usuarios seleccionar entre modos de no-pensamiento y pensamiento para optimizar el rendimiento según la complejidad de la tarea.
Características y Capacidades
DeepSeek-V3.1 está diseñado para proporcionar mayor eficiencia y fiabilidad, según Together AI. Admite implementación sin servidor con un SLA del 99,9%, garantizando un rendimiento robusto en una variedad de casos de uso. El modo de pensamiento del modelo ofrece una calidad comparable a su predecesor, DeepSeek-R1, pero con una mejora significativa en velocidad, haciéndolo adecuado para entornos de producción.
El modelo está construido sobre un conjunto de datos de entrenamiento sustancial, con 630 mil millones de tokens para contexto de 32K y 209 mil millones de tokens para contexto de 128K, mejorando su capacidad para manejar conversaciones extensas y grandes bases de código. Esto asegura que el modelo esté bien equipado para tareas que requieren análisis detallado y razonamiento de múltiples pasos.
Aplicaciones del Mundo Real
DeepSeek-V3.1 sobresale en varias aplicaciones, incluyendo tareas de código y Agente de IA de búsqueda. En modo de no-pensamiento, maneja eficientemente tareas rutinarias como la generación de endpoints de API y consultas simples. En contraste, el modo de pensamiento es ideal para la resolución de problemas complejos, como la depuración de sistemas distribuidos y el diseño de migraciones de bases de datos sin tiempo de inactividad.
Para el procesamiento de documentos, el modelo ofrece capacidades de no-pensamiento para la extracción de entidades y análisis básico, mientras que el modo de pensamiento admite análisis exhaustivo de flujos de trabajo de cumplimiento y referencias cruzadas regulatorias.
Métricas de Rendimiento
Las pruebas de referencia revelan las fortalezas del modelo en ambos modos. Por ejemplo, en el benchmark MMLU-Redux, el modo de pensamiento logró una tasa de éxito del 93,7%, superando al modo de no-pensamiento por un 1,9%. De manera similar, el benchmark GPQA-Diamond mostró una mejora del 5,2% en modo de pensamiento. Estas métricas subrayan la capacidad del modelo para mejorar el rendimiento en diversas tareas.
Implementación e Integración
DeepSeek-V3.1 está disponible a través de la API sin servidor de Together AI y endpoints dedicados, ofreciendo especificaciones técnicas con 671 mil millones de parámetros totales y una licencia MIT para aplicación extensiva. La infraestructura está diseñada para la fiabilidad, con centros de datos en Norteamérica y cumplimiento SOC 2.
Los desarrolladores pueden integrar rápidamente el modelo en sus aplicaciones utilizando el SDK de Python proporcionado, permitiendo la incorporación perfecta de las capacidades de DeepSeek-V3.1 en sistemas existentes. La infraestructura de Together AI admite grandes modelos de mezcla de expertos, asegurando que tanto los modos de pensamiento como de no-pensamiento operen eficientemente bajo cargas de trabajo de producción.
Con el lanzamiento de DeepSeek-V3.1, Together AI busca proporcionar una solución versátil para empresas que buscan mejorar sus aplicaciones impulsadas por IA con capacidades tanto de respuesta rápida como de análisis profundo.
Fuente de la imagen: Shutterstock
Fuente: https://blockchain.news/news/together-ai-launches-deepseek-v3-1-versatile-hybrid-model


