Intelは、COMPUTEX TAIPEI 2025において、Xe2アーキテクチャに基づく最新GPUとなる開発コードネーム「Battlemage」に基づいたプロ向け製品「Intel Arc Pro B」シリーズを発表した。
Arc Pro Bシリーズの詳細に関しては別記事が詳しいため、そちらをご参照いただきたいが、Arc Pro BシリーズをスケールアップしてAI推論に利用する取り組みとなる「Project Battlematrix」の開発意向表明を行なった。
Project Battlematrixでは、1つのシステムに最大8つのArc Pro BシリーズのGPUを搭載して、最大192GBのVRAMを搭載している1つのGPUにスケールアップして利用することができる。IntelはProject Battlematrixを実現するソフトウェアを現在開発中で、具体的な時期などは現時点では明らかではないが、最終的に公開していく計画だ。
ワークステーション用のB60を利用して、AI推論を引き上げるProject Battlematrix
生成AIが普及して利用が進んできたことが、開発者にとっての興味が、“学習(ラーニング)時の性能”だけでなく、“推論時(インファレンス)の性能”にも広がりつつある。生成AIはモデルのサイズなどが大きくなってきており、学習したモデルを利用してアプリケーションを実行する時(つまり推論時)に必要な処理能力が学習に匹敵するようになってきているからだ。
そのため、半導体メーカー各社は推論向けの半導体ソリューションに力を入れており、従来の学習はGPU、推論はCPUという棲み分けから、推論でもGPUを使う例が増えている。
今回Intelが開発意向表明を行なったProject Battlematrix、誤解を恐れずに言えば、クライアントワークステーション用として販売されるArc Pro Bを複数束ねて、1つの大きなGPUとして利用するというソフトウェアスタックだ。
AI用の半導体では、こうしたソリューションは別に珍しいものではなく、たとえば学習用のNVIDIA GPU(B200、H200などなど)は、NVLinkというNVIDIAのチップ間インターコネクトを利用して接続され、CUDAなどのソフトウェアスタックにより、8つのGPUを1つのGPUとして扱うことができる。こうしたやり方を“スケールアップ”と呼ぶ。
ちなみにさらに大規模な場合にはネットワークコントローラで機器同士を接続することで、数千個や数万個といったGPUを1つのGPUとして扱えるようにするやり方を“スケールアウト”と呼んでいる。
Project Battlematrixでは、スケールアップにチップ間の接続としてPCIe 5.0という標準のバスアーキテクチャを利用するが、最大で8つまでのArc Pro Bシリーズを1つのGPUとして活用することが可能になる。
Arc Pro Bシリーズの上位グレードになるB60は、VRAMが24GBとこのクラスのカードとして大容量メモリを搭載しているので、それが8つ束ねられると、最大192GBのVRAMを利用することが可能になり、NVIDIAのB200に匹敵する巨大なVRAMを利用することが可能になる。
比較的ローコストなB60を複数使用してそれなりに高性能なシステムを構築できるのがメリット
Intel製品の場合、メモリがNVIDIA B200のように広帯域幅のHBMではなくGDDR6だし、チップ間の接続もNVLinkのような広帯域インターコネクトではなく標準のPCIe 5.0だ。そのため性能面ではそれらと比べようもないが、低コストで構築できるのはメリットだ。
必要な要件は、システム側がPCIe 5.0に対応しているXeonプロセッサであることぐらいなので、現在ワークステーションとして利用しているPCを転用することができるし、AI専用のGPUに比べれば安価なArc Bシリーズを利用して構築できるのはコスト面での効果が大きいと言える。
今回Intelは、4枚のB60を、Xeonを搭載したワークステーションに挿して、実際にAI推論アプリケーションを実行するデモを行なった。4枚のB60はVRAMが96GB(24GB×4)となるので、より大規模なAI推論アプリケーションを実行することができていた。
Intelによれば、PCIeスロットの数にも制限があるため、8つの場合には1つのカードに2つのGPUが搭載されているデュアルGPUカードを利用して実現するという(なお現時点ではそのB60のデュアルカードがいつリリースされるのかなどの情報はない)。
Project Battlematrixは現在開発中で、開発が完了し次第順次公開されていく計画とのことだった。
🧠 編集部の感想:
Intelの「Project Battlematrix」は、AI推論性能を向上させるための新しい取り組みで、最大8つのGPUを束ねることで大規模なVRAMを実現する点が注目されます。コスト効率が高く、既存のシステムを利用できるのは魅力的ですが、性能面での競争が激しい中でどれだけの成果が出せるかが課題でしょう。AI技術の進化を牽引する一助として、今後の展開に期待したいですね。
Views: 0