Together AI Ulepsza Platformę Fine-Tuningu o Wsparcie Wizji i Rozumowania
Joerg Hiller 18 mar 2026 18:27
Together AI dodaje wywoływanie narzędzi, ślady rozumowania i fine-tuning wizyjno-językowy do swojej platformy, osiągając 6-krotny wzrost przepustowości dla modeli z ponad 100 mld parametrów.
Together AI wprowadził 18 marca znaczną rozbudowę swojej usługi fine-tuningu, dodając natywne wsparcie dla wywoływania narzędzi, śladów rozumowania i modeli wizyjno-językowych—funkcji, które rozwiązują uporczywe problemy zespołów budujących produkcyjne systemy AI.
Aktualizacja pojawia się w momencie, gdy firma podobno negocjuje rundę finansowania, która wyceniłaby ją na 7,5 miliarda dolarów, ponad dwukrotnie przewyższając jej wycenę z lutego 2025 roku wynoszącą 3,3 miliarda dolarów w rundzie Series B.
Co Jest Faktycznie Nowego
Platforma obsługuje teraz trzy kategorie fine-tuningu, które wcześniej wymagały fragmentarycznych obejść:
Wywoływanie narzędzi otrzymuje kompleksowe wsparcie przy użyciu schematów kompatybilnych z OpenAI. System weryfikuje, czy każde wywołanie narzędzia w danych treningowych odpowiada zadeklarowanym funkcjom przed rozpoczęciem treningu—zabezpieczenie przed halucynowanymi parametrami i niedopasowaniami schematów, które nękają przepływy pracy agentów.
Fine-tuning rozumowania pozwala zespołom trenować modele na domenowo-specyficznych śladach myślenia przy użyciu dedykowanego pola reasoning_content. Ma to znaczenie, ponieważ formaty rozumowania znacznie się różnią między rodzinami modeli, co bez standaryzacji utrudnia spójny trening.
Fine-tuning wizyjno-językowy obsługuje hybrydowe zbiory danych łączące przykłady obraz-tekst i tylko tekstowe. Domyślnie koder wizyjny pozostaje zamrożony, podczas gdy warstwy językowe są aktualizowane, choć zespoły mogą włączyć wspólny trening, gdy rozpoznawanie wzorców wizualnych wymaga poprawy.
Ulepszenia Infrastruktury
Poza nowymi możliwościami, Together AI twierdzi, że osiągnął znaczące wzrosty wydajności dzięki optymalizacji stosu treningowego dla architektur mixture-of-experts. Firma zintegrowała jądra SonicMoE, które nakładają operacje pamięciowe na obliczenia, plus niestandardowe jądra CUDA do obliczania strat.
Wyniki różnią się w zależności od rozmiaru modelu: mniejsze modele wykazują około 2-krotną poprawę przepustowości, podczas gdy większe architektury jak Kimi-K2 osiągają 6-krotne wzrosty. Platforma obsługuje teraz zbiory danych do 100 GB i modele przekraczające 100 miliardów parametrów.
Nowe modele dostępne do fine-tuningu obejmują warianty Qwen 3.5 (do 397 mld parametrów), Kimi K2 i K2.5 oraz GLM-4.6 i 4.7.
Praktyczne Dodatki
Aktualizacja obejmuje szacowanie kosztów przed wykonaniem zadania i śledzenie postępu na żywo z dynamicznymi szacunkami zakończenia—funkcje, które brzmią podstawowo, ale zapobiegają niespodziankom budżetowym, które czynią eksperymentowanie ryzykownym.
XY.AI Labs, przytaczane przez Together AI jako przykład klienta, zgłosiło przejście z tygodniowych na dzienne cykle iteracji, jednocześnie obniżając koszty 2-3-krotnie i poprawiając dokładność z 77% do 87% przy użyciu API platformy do fine-tuningu i wdrażania.
Kontekst Rynkowy
Timing jest zgodny z gwałtownym wzrostem wydatków na infrastrukturę AI. Finansowanie startupów w sektorze AI osiągnęło 220 miliardów dolarów w pierwszych dwóch miesiącach 2026 roku, według ostatnich raportów, przy czym większość tego kapitału płynie w kierunku infrastruktury treningowej i wnioskowania.
Together AI pozycjonuje się jako alternatywa dla budowania własnej infrastruktury AI, oferując dostęp do ponad 200 modeli open-source za pośrednictwem swojej platformy. Propozycja firmy—usunięcie złożoności infrastruktury, aby zespoły mogły skupić się na rozwoju produktu—rozciąga się teraz na coraz bardziej zaawansowane przepływy pracy po-treningowe, które wcześniej były domeną dobrze wyposażonych laboratoriów badawczych.
Źródło obrazu: Shutterstock- together ai
- infrastruktura ai
- fine-tuning
- uczenie maszynowe
- ai w przedsiębiorstwie



