Together AI añade llamadas a herramientas, trazas de razonamiento y ajuste fino de visión-lenguaje a su plataforma, con mejoras de rendimiento de 6x para modelos de más de 100B parámetros. (Leer másTogether AI añade llamadas a herramientas, trazas de razonamiento y ajuste fino de visión-lenguaje a su plataforma, con mejoras de rendimiento de 6x para modelos de más de 100B parámetros. (Leer más

Together AI actualiza su plataforma de ajuste fino con soporte para visión y razonamiento

2026/03/19 02:27
Lectura de 4 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

Together AI actualiza su plataforma de ajuste fino con soporte para visión y razonamiento

Joerg Hiller 18 de marzo de 2026 18:27

Together AI añade llamadas a herramientas, trazas de razonamiento y ajuste fino de visión-lenguaje a su plataforma, con mejoras de rendimiento de 6x para modelos con más de 100 mil millones de parámetros.

Together AI actualiza su plataforma de ajuste fino con soporte para visión y razonamiento

Together AI lanzó una expansión importante a su servicio de ajuste fino el 18 de marzo, añadiendo soporte nativo para llamadas a herramientas, trazas de razonamiento y modelos de visión-lenguaje—capacidades que abordan puntos críticos persistentes para equipos que construyen sistemas de IA en producción.

La actualización llega mientras la compañía supuestamente negocia una ronda de financiamiento que la valoraría en 7,5 mil millones de dólares, más del doble de su valoración de 3,3 mil millones de dólares de su Serie B de febrero de 2025.

Lo que realmente es nuevo

La plataforma ahora maneja tres categorías de ajuste fino que anteriormente requerían soluciones alternativas fragmentadas:

Llamadas a herramientas obtiene soporte de extremo a extremo utilizando esquemas compatibles con OpenAI. El sistema valida que cada llamada a herramienta en los datos de entrenamiento coincida con las funciones declaradas antes de que comience el entrenamiento—una protección contra los parámetros alucinados y desajustes de esquema que afectan los flujos de trabajo agénticos.

Ajuste fino de razonamiento permite a los equipos entrenar modelos en trazas de pensamiento específicas de dominio usando un campo reasoning_content dedicado. Esto importa porque los formatos de razonamiento varían enormemente entre familias de modelos, haciendo difícil el entrenamiento consistente sin estandarización.

Ajuste fino de visión-lenguaje admite conjuntos de datos híbridos que mezclan ejemplos de imagen-texto y solo texto. Por defecto, el codificador de visión permanece congelado mientras las capas de lenguaje se actualizan, aunque los equipos pueden habilitar el entrenamiento conjunto cuando el reconocimiento de patrones visuales necesita mejoras.

Actualizaciones de infraestructura

Más allá de las nuevas capacidades, Together AI afirma mejoras significativas de rendimiento al optimizar su pila de entrenamiento para arquitecturas de mezcla de expertos. La compañía integró kernels SonicMoE que superponen operaciones de memoria con computación, además de kernels CUDA personalizados para cálculo de pérdidas.

Los resultados varían según el tamaño del modelo: los modelos más pequeños ven mejoras de rendimiento de aproximadamente 2x, mientras que arquitecturas más grandes como Kimi-K2 alcanzan ganancias de 6x. La plataforma ahora maneja conjuntos de datos de hasta 100GB y modelos que superan los 100 mil millones de parámetros.

Los nuevos modelos disponibles para ajuste fino incluyen variantes de Qwen 3.5 (hasta 397 mil millones de parámetros), Kimi K2 y K2.5, y GLM-4.6 y 4.7.

Adiciones prácticas

La actualización incluye estimación de costos antes de la ejecución del trabajo y seguimiento del progreso en vivo con estimaciones dinámicas de finalización—características que suenan básicas pero previenen las sorpresas presupuestarias que hacen arriesgada la experimentación.

XY.AI Labs, citado por Together AI como ejemplo de cliente, reportó pasar de ciclos de iteración semanales a diarios mientras reducía costos 2-3x y mejoraba la precisión del 77% al 87% usando las APIs de ajuste fino e implementación de la plataforma.

Contexto del mercado

El momento se alinea con un aumento en el gasto de infraestructura de IA. La financiación de startups en el sector de IA alcanzó 220 mil millones de dólares en los primeros dos meses de 2026, según informes recientes, con gran parte de ese capital fluyendo hacia infraestructura de entrenamiento e inferencia.

Together AI se posiciona como una alternativa a construir infraestructura de IA interna, ofreciendo acceso a más de 200 modelos de código abierto a través de su plataforma. La propuesta de la compañía—eliminar la complejidad de infraestructura para que los equipos puedan enfocarse en el desarrollo de productos—ahora se extiende a flujos de trabajo posteriores al entrenamiento cada vez más sofisticados que anteriormente eran dominio de laboratorios de investigación con buenos recursos.

Fuente de imagen: Shutterstock
  • together ai
  • infraestructura de ia
  • ajuste fino
  • aprendizaje automático
  • ia empresarial
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.