新版 iphone 【MFi認証】ライトニングケーブル 2M 3本セット 充電器 ケーブル 最大2.4A急速充電 lightning 断線防止 超高耐久 iPhone14/14 Pro/14 ProMax/13/13 Pro/12/12 ProMax/11/X/8/iPad/AirPods/MacBookなど各種対応
¥799 (2025年4月26日 13:09 GMT +09:00 時点 - 詳細はこちら価格および発送可能時期は表示された日付/時刻の時点のものであり、変更される場合があります。本商品の購入においては、購入の時点で当該の Amazon サイトに表示されている価格および発送可能時期の情報が適用されます。)【Amazon.co.jp限定】 バッファロー WiFi 無線LAN 中継機 Wi-Fi 5 11ac 866 + 300 Mbps ハイパワー コンセント直挿し コンパクトモデル 簡易パッケージ 日本メーカー 【 iPhone 16 / 15 / 14 / 13 / Nintendo Switch / PS5 動作確認済み 】 エコパッケージ WEX-1166DHPL/N
¥2,479 (2025年4月26日 13:07 GMT +09:00 時点 - 詳細はこちら価格および発送可能時期は表示された日付/時刻の時点のものであり、変更される場合があります。本商品の購入においては、購入の時点で当該の Amazon サイトに表示されている価格および発送可能時期の情報が適用されます。)
2025年4月5日にMetaが発表した次世代AIモデル「Llama 4」は、リソースの無駄を省きながら高性能を維持する設計となっており、170億のアクティブパラメーターを持つLlama 4 MaverickではOpenAIのGPT-4oやDeepSeek-V3と同等以上の精度を、より少ない計算資源で達成することがアピールされています。一方で、Llama 4が記録した高いベンチマークスコアに対して一部の開発者は「会話用に調整された実験用バージョン」と指摘しています。これに対しMetaは「真実ではない」と反論しました。
Meta’s benchmarks for its new AI models are a bit misleading | TechCrunch
https://techcrunch.com/2025/04/06/metas-benchmarks-for-its-new-ai-models-are-a-bit-misleading/
Meta exec denies the company artificially boosted Llama 4’s benchmark scores | TechCrunch
https://techcrunch.com/2025/04/07/meta-exec-denies-the-company-artificially-boosted-llama-4s-benchmark-scores/
Meta defends Llama 4 release against ‘reports of mixed quality,’ blames bugs | VentureBeat
https://venturebeat.com/ai/meta-defends-llama-4-release-against-reports-of-mixed-quality-blames-bugs/
Llama 4: Did Meta just push the panic button?
https://www.interconnects.ai/p/llama-4
Metaが2025年4月5日に発表した「Llama 4」は、ネイティブなマルチモーダルモデルで、テキストだけでなく画像や動画といった複数の情報形式を最初から統合的に扱えるように設計されています。また、MoEアーキテクチャにより、「エキスパート」と呼ばれる各タスクに最適な専門モデルのみを選択的に動作させることで、リソースの無駄を省きながら高性能を維持する設計であるほか、長文コンテキスト処理における精度劣化の緩和を目的とした「iRoPE(Improved Rotary Position Embeddings)」と呼ばれる新たな位置埋め込み手法も用いられています。
特に、170億のアクティブパラメーターを持つ「Llama 4 Scout」や「Llama 4 Maverick」は、Gemma 3やGemini 2.0 Flash-Lite、Mistral 3.1ならびにGPT-4oやDeepSeek-V3といった競合モデルと同等の精度をより少ない計算資源で達成することができると報告されています。
Metaが次世代マルチモーダルAI「Llama 4」をリリース、MoEアーキテクチャ採用で競合モデルに匹敵する高性能を誇る – GIGAZINE
一方で、これらのモデルには「AI評価プラットフォームのLM Arenaでより良いスコアを獲得するために、公開されるLlama 4とは異なるテストセットでトレーニングした」という疑惑がかけられています。
AI研究者で作家のアンドリュー・ブルコフ氏は「『1000万トークンという非常に長いコンテキストウィンドウをサポート』とアピールするLlama 4 Scoutに25万6000以上のトークンを送信すると、出力は非常に低品質なものとなる」と批判しています。
I will save you reading time about Llama 4.
The declared 10M context is virtual because no model was trained on prompts longer than 256k tokens. This means that if you send more than 256k tokens to it, you will get low-quality output most of the time.
And even if your problem…
— Andriy Burkov (@burkov) April 5, 2025
また、掲示板サイトのRedditでは「回転する七角形の中を弾むボールのシミュレーション」のコーディングタスクをLlama 4で実行した結果、DeepSeek-V3と比べてパフォーマンスが低いことが報告されています。
さらに、元Metaの研究者で、アレン人工知能研究所のシニアリサーチサイエンティストであるネイサン・ランバート氏は「Metaがマーケティング上のセールスポイントを作成するために使用したモデルを公開しないことは大きな問題です」と語りました。
一方でMetaのジェネレーティブAI担当バイスプレジデントのアフマド・アル・ダーレ氏は「Llama 4をテストセットでトレーニングしたという主張を耳にしましたが、これは全くの事実無根です。一部のユーザーが報告している品質のバラつきは、実装を安定させるための方法です」と報告しています。
We’re glad to start getting Llama 4 in all your hands. We’re already hearing lots of great results people are getting with these models.
That said, we’re also hearing some reports of mixed quality across different services. Since we dropped the models as soon as they were…
— Ahmad Al-Dahle (@Ahmad_Al_Dahle) April 7, 2025
また、ダーレ氏は「一部のユーザーが、モデルをホストしているさまざまなクラウドプロバイダー間で、Llama 4 MarverickとLlama 4 Scoutを混同している」と主張するとともに、「一度公開されているモデルを取り下げました。数日かけてモデルの調整を行い、準備が整い次第再度公開実装します。私たちは今後もLlama 4のバグ修正とパートナーのオンボーディングを通じて開発に取り組んでいきます」と述べました。
この記事のタイトルとURLをコピーする