📌 ニュース:
Micronは10日、AIデータセンター向けの高帯域幅メモリ「HBM4 36GB 12-high」のサンプル出荷を開始しました。このメモリは、1β DRAMプロセスで製造され、12層の先進パッケージ技術を採用。
2,048bitのインターフェイスにより、メモリスタックあたり2TB/sを超える高速転送が可能です。
HBM3E比で60%以上の性能向上と、20%以上の電力効率改善を実現。これにより、AIデータセンターの処理速度や推論効率が向上します。量産は2026年を予定しています。
-
Micronが新しいHBM4メモリのサンプル出荷を開始しました!以下がそのポイントです✨
-
新技術の採用 🛠️
Micronは、12層積層で構成された「HBM4 36GB 12-high」を発表しました。このメモリは、AIデータセンター向けに特化しています。 -
性能向上と電力効率 ⚡
前世代のHBM3Eと比べて、性能が60%以上向上し、電力効率も20%以上改善されています。これにより、AI処理の速度と効率が大幅に向上します。 - 量産予定 📅
HBM4の量産開始は2026年を予定しています。高性能なメモリ技術が今後のデータセンターにどのように影響するか、注目です!
この技術革新が、今後のAI関連技術にどれだけ寄与するか、大変楽しみですね!
-
※以下、出典元
▶ 元記事を読む
Views: 0