Together AI、ビジョンと推論サポートを備えたファインチューニングプラットフォームをアップグレード
Joerg Hiller 2026/3/18 18:27
Together AIは、ツール呼び出し、推論トレース、ビジョン言語ファインチューニングをプラットフォームに追加し、100B+パラメータモデルで6倍のスループット向上を実現。
Together AIは3月18日、ファインチューニングサービスの大規模拡張を展開し、ツール呼び出し、推論トレース、ビジョン言語モデルのネイティブサポートを追加しました。これらの機能は、本番環境のAIシステムを構築するチームにとって長年の課題を解決するものです。
このアップデートは、同社が75億ドルの企業価値での資金調達ラウンドを交渉していると報じられている中で行われ、2025年2月のシリーズBでの33億ドルの評価額から2倍以上になります。
実際の新機能
プラットフォームは、以前は断片的な回避策が必要だった3つのカテゴリのファインチューニングに対応するようになりました:
ツール呼び出しは、OpenAI互換スキーマを使用したエンドツーエンドのサポートを提供します。システムは、トレーニング開始前にトレーニングデータ内のすべてのツール呼び出しが宣言された関数と一致することを検証します。これは、エージェントワークフローを悩ませる幻覚パラメータとスキーマの不一致に対する保護策です。
推論ファインチューニングは、専用のreasoning_contentフィールドを使用して、ドメイン固有の思考トレースでモデルをトレーニングすることを可能にします。これは、推論フォーマットがモデルファミリー間で大きく異なるため、標準化なしでは一貫したトレーニングが困難になることから重要です。
ビジョン言語ファインチューニングは、画像テキストとテキストのみの例を混在させたハイブリッドデータセットをサポートします。デフォルトでは、ビジョンエンコーダは凍結されたままで言語レイヤーが更新されますが、視覚パターン認識の改善が必要な場合、チームは共同トレーニングを有効にできます。
インフラストラクチャのアップグレード
新機能に加えて、Together AIは、エキスパート混合アーキテクチャ向けにトレーニングスタックを最適化することで、大幅なパフォーマンス向上を実現したと主張しています。同社は、メモリ操作と計算をオーバーラップさせるSonicMoEカーネルと、損失計算用のカスタムCUDAカーネルを統合しました。
結果はモデルサイズによって異なります。小規模モデルでは約2倍のスループット改善が見られる一方、Kimi-K2のような大規模アーキテクチャでは6倍の向上を実現しています。プラットフォームは現在、最大100GBのデータセットと1000億パラメータを超えるモデルを処理できます。
ファインチューニング可能な新しいモデルには、Qwen 3.5バリアント(最大397Bパラメータ)、Kimi K2およびK2.5、GLM-4.6および4.7が含まれます。
実用的な追加機能
このアップデートには、ジョブ実行前のコスト見積もりと、動的な完了予測を伴うリアルタイム進捗追跡が含まれています。これらは基本的に聞こえる機能ですが、実験をリスクのあるものにする予算の驚きを防ぎます。
Together AIが顧客事例として引用したXY.AI Labsは、プラットフォームのファインチューニングとデプロイメントAPIを使用して、週次から日次のイテレーションサイクルに移行し、コストを2〜3倍削減し、精度を77%から87%に向上させたと報告しています。
市場背景
このタイミングは、AIインフラストラクチャ支出の急増と一致しています。最近の報告によると、AI分野のスタートアップ企業への資金調達は2026年の最初の2か月で2200億ドルに達し、その資本の多くがトレーニングと推論インフラストラクチャに流れています。
Together AIは、社内AIインフラストラクチャの構築に代わる選択肢として位置付けられており、プラットフォームを通じて200以上のオープンソースモデルへのアクセスを提供しています。同社の提案は、インフラストラクチャの複雑さを取り除き、チームが製品開発に集中できるようにすることであり、これは以前は豊富なリソースを持つ研究ラボの領域だった、ますます洗練されたトレーニング後のワークフローにまで拡張されています。
画像出典:Shutterstock- together ai
- aiインフラストラクチャ
- ファインチューニング
- 機械学習
- エンタープライズai



