Together AI dodaje wywoływanie narzędzi, ślady rozumowania i dostrajanie vision-language do swojej platformy, z 6-krotnym wzrostem przepustowości dla modeli z ponad 100 mld parametrów. (Czytaj więcejTogether AI dodaje wywoływanie narzędzi, ślady rozumowania i dostrajanie vision-language do swojej platformy, z 6-krotnym wzrostem przepustowości dla modeli z ponad 100 mld parametrów. (Czytaj więcej

Together AI ulepsza platformę dostrajania o obsługę wizji i rozumowania

2026/03/19 02:27
3 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

Together AI Ulepsza Platformę Fine-Tuningu o Wsparcie Wizji i Rozumowania

Joerg Hiller 18 mar 2026 18:27

Together AI dodaje wywoływanie narzędzi, ślady rozumowania i fine-tuning wizyjno-językowy do swojej platformy, osiągając 6-krotny wzrost przepustowości dla modeli z ponad 100 mld parametrów.

Together AI Ulepsza Platformę Fine-Tuningu o Wsparcie Wizji i Rozumowania

Together AI wprowadził 18 marca znaczną rozbudowę swojej usługi fine-tuningu, dodając natywne wsparcie dla wywoływania narzędzi, śladów rozumowania i modeli wizyjno-językowych—funkcji, które rozwiązują uporczywe problemy zespołów budujących produkcyjne systemy AI.

Aktualizacja pojawia się w momencie, gdy firma podobno negocjuje rundę finansowania, która wyceniłaby ją na 7,5 miliarda dolarów, ponad dwukrotnie przewyższając jej wycenę z lutego 2025 roku wynoszącą 3,3 miliarda dolarów w rundzie Series B.

Co Jest Faktycznie Nowego

Platforma obsługuje teraz trzy kategorie fine-tuningu, które wcześniej wymagały fragmentarycznych obejść:

Wywoływanie narzędzi otrzymuje kompleksowe wsparcie przy użyciu schematów kompatybilnych z OpenAI. System weryfikuje, czy każde wywołanie narzędzia w danych treningowych odpowiada zadeklarowanym funkcjom przed rozpoczęciem treningu—zabezpieczenie przed halucynowanymi parametrami i niedopasowaniami schematów, które nękają przepływy pracy agentów.

Fine-tuning rozumowania pozwala zespołom trenować modele na domenowo-specyficznych śladach myślenia przy użyciu dedykowanego pola reasoning_content. Ma to znaczenie, ponieważ formaty rozumowania znacznie się różnią między rodzinami modeli, co bez standaryzacji utrudnia spójny trening.

Fine-tuning wizyjno-językowy obsługuje hybrydowe zbiory danych łączące przykłady obraz-tekst i tylko tekstowe. Domyślnie koder wizyjny pozostaje zamrożony, podczas gdy warstwy językowe są aktualizowane, choć zespoły mogą włączyć wspólny trening, gdy rozpoznawanie wzorców wizualnych wymaga poprawy.

Ulepszenia Infrastruktury

Poza nowymi możliwościami, Together AI twierdzi, że osiągnął znaczące wzrosty wydajności dzięki optymalizacji stosu treningowego dla architektur mixture-of-experts. Firma zintegrowała jądra SonicMoE, które nakładają operacje pamięciowe na obliczenia, plus niestandardowe jądra CUDA do obliczania strat.

Wyniki różnią się w zależności od rozmiaru modelu: mniejsze modele wykazują około 2-krotną poprawę przepustowości, podczas gdy większe architektury jak Kimi-K2 osiągają 6-krotne wzrosty. Platforma obsługuje teraz zbiory danych do 100 GB i modele przekraczające 100 miliardów parametrów.

Nowe modele dostępne do fine-tuningu obejmują warianty Qwen 3.5 (do 397 mld parametrów), Kimi K2 i K2.5 oraz GLM-4.6 i 4.7.

Praktyczne Dodatki

Aktualizacja obejmuje szacowanie kosztów przed wykonaniem zadania i śledzenie postępu na żywo z dynamicznymi szacunkami zakończenia—funkcje, które brzmią podstawowo, ale zapobiegają niespodziankom budżetowym, które czynią eksperymentowanie ryzykownym.

XY.AI Labs, przytaczane przez Together AI jako przykład klienta, zgłosiło przejście z tygodniowych na dzienne cykle iteracji, jednocześnie obniżając koszty 2-3-krotnie i poprawiając dokładność z 77% do 87% przy użyciu API platformy do fine-tuningu i wdrażania.

Kontekst Rynkowy

Timing jest zgodny z gwałtownym wzrostem wydatków na infrastrukturę AI. Finansowanie startupów w sektorze AI osiągnęło 220 miliardów dolarów w pierwszych dwóch miesiącach 2026 roku, według ostatnich raportów, przy czym większość tego kapitału płynie w kierunku infrastruktury treningowej i wnioskowania.

Together AI pozycjonuje się jako alternatywa dla budowania własnej infrastruktury AI, oferując dostęp do ponad 200 modeli open-source za pośrednictwem swojej platformy. Propozycja firmy—usunięcie złożoności infrastruktury, aby zespoły mogły skupić się na rozwoju produktu—rozciąga się teraz na coraz bardziej zaawansowane przepływy pracy po-treningowe, które wcześniej były domeną dobrze wyposażonych laboratoriów badawczych.

Źródło obrazu: Shutterstock
  • together ai
  • infrastruktura ai
  • fine-tuning
  • uczenie maszynowe
  • ai w przedsiębiorstwie
Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.