Googleの第7世代TPU「Ironwood」

 Googleのクラウド部門「Google Cloud」は、4月9日~4月11日(現地時間)に年次イベント「Google Cloud Next 25」を開催する。それに先立ち、最新の第7世代TPU「Ironwood」(開発コードネーム)を発表した。

 同社のTPUはこれまでは基本的に学習用として位置づけられてきたが、今回のIronwoodは推論に特化していることが大きな特徴だ。Ironwood単体の性能は4,461TFLOPS(FP8時)で、最大9,216基へとスケールアップ可能。米国エネルギー庁のスパコン「El Capitan」の24倍となる42.5EFLOPSという性能を実現できる。

Ironwoodはチップ単体で4,461TFLOPS

Ironwoodを搭載したボード

 Ironwoodは、昨年5月にGoogleが発表したTrilliumの後継となる第7世代のTPUだ。Trilliumは、今年に入ってからTPU v6eとして正式名称がアナウンスされており、Ironwoodはその後継と位置づけられる製品になる。

GoogleのTPU進化の歴史

 Googleの内部向けだけに限定提供されていた推論専用のTPU v1は別にすると、第6世代までのTPUは基本的に学習用のアクセラレーターとして提供されてきた。しかし、Ironwoodは外部向けTPUとしては初めて推論に特化したAIアクセラレーターとなる。

 現時点ではチップ単体の開発意向表明であるため、製品名がTPU v7になるのかなども含めて未定。VM(AWSで言うところのEC2インスタンス)として提供する時に明らかになるが、Googleが公開した動画の中では「第7世代TPU」(7th gen TPU)と紹介されているため、おそらくそうなるだろう。

Ironwoodの紹介動画

 Ironwoodは、内部構造として近年のTPUで採用されてきたデータフロープロセッサ「SparseCore」の最新版を搭載しており、よりワイドレンジのワークロードやこれまでのAI処理などで高速に処理できるように工夫されている。

 また、従来のTPUにも採用されてきたチップ間インターコネクト「ICI」(Inter-Chip Interconnect)の拡張版を搭載しており、256基ないしは9,216基までスケールアップできる。ICIの帯域幅も1.2Tbpsと強化されている。

 メモリも強化点だ。従来のTPU v6eでは32GBのHBMを搭載していたのに対して、その6倍の192GBになっており、帯域幅も1,640Gbpsから4.5倍の7.4Tbpsとなっている。

TPU v5p、TPU v4と比較した性能

電力効率も改善されている

 こうした強化が行なわれているため、チップ単体の性能は4,461TFLOPS(FP8時)に向上した。

 従来のTPUではFP8の演算はBF16の演算器で演算されるため直接比較はできないが、BF16でFP8の演算を行なったと仮定すると、TPU v6eは918TFLOPであるので約5倍、TPU v5pは459TFLOPSであるので約9.72倍、TPU v4は275TFLOPSであるため約16.22倍の性能を実現することになる。電力効率も改善されており、TPU v2と比較して29.3倍という。

 なお、現時点ではIronwoodの製造プロセスノードや製造工場などは公開されていない。

El Capitanの24倍高性能に

IronwoodではICIを利用して最大9,216基までスケールアップできる

 IronwoodではICIを利用して最大9,216基までスケールアップ可能になっている。TPU v5pでは最大8,960基、TPU v4では最大4,896基までスケールアップできるようになっていたのに比べると、最大構成の数が増えている。

 9,216基へスケールアップする場合には、水冷や液冷などのより最先端の冷却技術と組み合わせて利用されることになる。ICIとそうした冷却技術により、9,261基で構成されるIronwoodのスーパーコンピュータは、現在の最高性能とされる米国エネルギー庁のEl Capitan(HPE/Cary製、AMD EPYC+Instinct MI300X)の1.7EFLOPSと比較して約24倍の性能となる42.5EFLOPSという性能を実現することになる。

 こうしたハードウェアの強化に合わせて、Google CloudはIronwoodなどのTPUで推論を実行するソフトウェア開発に利用できるソフトウェアランタイム「Pathway」の提供を開始する。

 Pathwayは従来Googleの社内で学習や推論をTPUなどのハードウェア上で行なうために利用されていたランタイムで、今回Ironwoodの発表に合わせてGoogle Cloudの顧客に開放される形になる。

 Pathwayを利用すると、ハードウェアの割り当てを動的に増やしたり、減らしたりすることが可能で、推論のニーズに応じて柔軟に対応できるようになる。

 また、「GKE Inference Engine」ではGoogle Cloud上のKubernetesのコンテナから、TPUを利用した推論を可能にする仕組みが提供される。これにより、GKEベースで動作させているAIアプリケーションなどからより容易にTPUを活用可能になる。

1930年代の「オズの魔法使い」がAIで16Kに超解像

Googleのイベントが開催されたSphere、サイネージにはGoogle Cloudのロゴが表示されていた

 Google Cloudは、先日発表されたGeminiの最新版となるGemini 2.5 ProのバリエーションとなるファウンデーションモデルとなるGemini 2.5 Flashを発表した。Gemini 2.5 Flashは、Gemini 2.5 Proよりも低遅延、低コストであることが特徴で、有り体に言えば、価格と性能のバランスをとったファウンデーションモデルになる。

 また、Googleが一般消費者向けにも提供しているコンテンツ生成に特化したファウンデーションモデルの最新版も発表されている。すでに市場に投入されている静止画生成モデルImagenの最新版となる「Imagen 3」、動画生成モデルVeoの最新版となる「Veo 2」、音声認識モデルChirpの最新版となる「Chirp 3)に加えて、今回初投入されるのがテキストから楽曲を生成する「Lyria」だ。

 これらの複数のモデルを組み合わせて利用することも可能で、Imagen 3で静止画を生成したものを、Veo 2で動画にして、さらにLyriaで生成した楽曲をバックグラウンドミュージックにしてマーケティング動画を作成するなどの使い方ができる。

超解像技術とAIで足りない部分をAIが補いながら16K化する

 さらに、Googleは4月8日夕刻(現地時間)にラスベガスの新名所になっている球体劇場Sphereにおいて、Google Cloud Nextのオープニングイベントを行ない、Sphereの16K×16Kの曲面ディスプレイに合わせて16Kに超解像加工(Super Resolution)した1930年代の映画「オズの魔法使い」の基礎部分をそのまま活用した16K版を製作したその裏側を公開した。

演技生成、本来の映画では描かれていない周辺部分でのキャラクターの動きをAIが生成して動画拡張する

 この16K版オズの魔法使いは、1930年代のアナログ映画のフィルムを元に、AIが超解像加工、Veoを利用した着色など表面加工(Outpainting)、演技生成(Performance Generation)、状況生成(Context Window)などの処理をImagenやVeo、GeminiなどのGoogleの生成AIファウンデーションモデルを利用して、AIが足りない部分を補うことで作られた現代版となる。

 たとえば、演技生成では、もとの4:3のアナログフィルムから16K×16Kの映像に拡大したときに、本来のフィルムにはなかった部分には描かれていないサブキャラクターの動きなどをAIがシナリオを作り、動画生成を行なうことで補うものだ。画像生成を利用した「画像拡張」の動画版の機能を実現しているものだと考えられている。

Google CEO ズンダー・ピチャイ氏

Sphere Entertainment CEO ジム・ドーラン氏(左)、Google Cloud CEO トーマス・クリアン氏(右)

 このイベントには、Google本体のCEOであるズンダー・ピチャイ氏、Google Cloud CEO トーマス・クリアン氏、Sphere Entertainment CEO ジム・ドーラン氏なども参加して、Googleの生成AI技術の新しい使い方として、90年近く前の映画を16Kという最新技術で復活させる意義などについて説明した。この16K版オズの魔法使いは8月からSphereで公開される予定だ。



フラッグシティパートナーズ海外不動産投資セミナー 【DMM FX】入金

Source link