火曜日に開催された初のLlamacon AI開発者会議で、メタはAIモデルのLlamaシリーズであるLlama APIのAPIを発表しました。
で利用可能 限られたプレビューLlama APIにより、開発者はメタごとにさまざまなLlamaモデルを搭載した製品を探索および実験できます。 MetaのSDKと組み合わせて、開発者はLlama駆動型サービス、ツール、アプリケーションを構築できます。 Metaは、APIの価格設定をTechCrunchとすぐに共有しませんでした。
APIの展開は、Metaが激しく競争力のあるオープンモデルスペースでリードを維持しようとするためです。 Llamaモデルが積み上げられています これまでに10億以上のダウンロードメタによると、DeepseekやAlibabaのQwenなどのライバルは、ラマとの広範囲にわたるエコシステムを確立するためのメタの努力を逆転させると脅しています。
Llama APIは、Llama 3.3 8bから始まるLlama Modelsのパフォーマンスを微調整および評価するためのツールを提供しています。顧客はデータを生成し、その上でトレーニングしてから、Llama APIでMetaの評価スイートを使用して、カスタムモデルの品質をテストできます。

Metaは、Llama APIの顧客データを使用して会社自身のモデルをトレーニングしないと述べ、Llama APIを使用して構築されたモデルを別のホストに転送できると述べました。
Metaの最近リリースされたLlama 4モデルの上に構築された開発者のために、特にLlama APIは、CerebrasとGROQとのパートナーシップを介してモデルサービングオプションを提供します。これらの「初期の実験」オプションは、開発者がAIアプリをプロトタイプするのに役立つ「リクエストに応じて利用可能」です、とMetaは言いました。
「APIでセレブラスまたはGROQモデル名を選択するだけで、開発者は1つの場所で追跡されたすべての使用状況で合理化されたエクスペリエンスを楽しむことができます」とTechCrunchに提供されたブログ投稿でメタは書いています。 「[W]eは、追加のプロバイダーとのパートナーシップを拡大して、ラマの上にさらに多くのオプションをもたらすことを楽しみにしています。」
メタは、「今後数週間と数ヶ月で」ラマAPIへのアクセスを拡大すると述べた。
Views: 0