週刊アスキー

  • Facebookアイコン
  • Twitterアイコン
  • RSSフィード

Metaが自社開発したAI推論用アクセラレーターMTIA v2 Hot Chips 2024で注目を浴びたオモシロCPU

2024年11月04日 12時00分更新

MTIA v2で性能は3倍に向上したが
チップサイズと消費電力も跳ね上がる

 ここから本題のMTIA v2に話を移す。2020年のMTIA v1の設計開始時点から比較すると、Meta社内で利用されているモデルのサイズも複雑さも大幅に増している。

モデルのサイズと複雑さが大幅に増している。これは比較的理解しやすい話である。Recommendation一つ取っても、より良い結果を得るためにはより複雑なモデルが必要とされ、必然的に容量も複雑さも増えることになる

 そこでMTIA v2の設計目標は下の画像のように設定された。結果として完成したのがその下の画像だ。

MTIA v2の設計目標。ピーク性能を追い求めるのではなく、たとえばある処理をスタートするのに1μs未満、完了した処理の後始末は0.5μs未満、といった実用的な目標が掲げられているあたりは、自社向けプロセッサーらしい感じが強い

ピーク性能がINT 8で354TOPSなので、MTIA v1のほぼ3.5倍といったあたり。精度を考えるとINT 4やFP8などの選択肢はなかったのだろう

 TSMC N5を使いつつ、ダイサイズは421mm2とかなり大規模化している。TDPも90Wまで引き上げられた。おもしろいのは外部接続のメモリーが引き続き128GB LPDDR5-6400になっていることで、帯域は204.8GB/秒のままである。消費電力などの観点から引き上げられなかったのか、それともv1以上の容量/帯域は不要と判断されたのかは不明である。

 内部構造そのものは以前と非常に似ている。オンチップSRAMの容量は128MB→256MBに増強された。I/FもPCIe 5.0×8に強化され、またコントローラーもけっこう強力になっている。それとv1では基本的にメッシュネットワーク構成だったのが、v2ではNoCに切り替わった。

MTIA v2の内部構造。左上にDecompression Engineが入ったことと、Host I/F(右下)とControl Core(右上が分離したことが目を惹く違いだ

8MBのL2とは別に4MBのスクラッチパッドが搭載されているのがおもしろい

帯域そのものも3.4倍になったとしている。単に信号速度向上だけでなく、データ幅も広げられているのかもしれない

 個々のCPの中身が下の画像だ。Vector付きのRISC-VコアとVectorなしのRISC-Vコアが搭載されるのは同じだが、それとは別にコマンドプロセッサーが搭載され(たのか、実はMTIA v1のPEにもあったのかは判断つかないが)、これが行列演算(DPE)や非線形関数(SE)などをまとめて管理する。

ダイナミック量子化(Dynamic quantization:RE)や重みの復元(Weight decompression:SDMA)などもMTIA v1にあったかどうか不明。どうも今回新規に追加された気がしなくもない。Eager modeはTensor FlowのEager Executionをサポートするモードだろう

この記事をシェアしよう

週刊アスキーの最新情報を購読しよう

本記事はアフィリエイトプログラムによる収益を得ている場合があります

この連載の記事