新しいSnapdragonは生成AIを強化しOSをまたがる連携が可能に(10月27日)
Qualcommは毎年この時期に、Snapdragonに関する年次イベントを開催している。
今年のテーマは「オンデバイス生成AI」だった。同社は毎年プロセッサーを刷新している。ただスマホ向けには単純なスピード以上に、GPUを含めた「AI処理に使える要素」のニーズが高くなっている。
一般的な機械学習ももちろんだが、生成AIもコンパクトなモデルをデバイス上で動かす流れが広がっていくだろう。即応性が求められる内容やプライベートな情報については、クラウドに送って処理するのではなく、スマホ内で推論を完結させた方が有利。そうなると、機械学習の推論に向いた「GPUよりも並列度が高くて粒度が小さい」コアが多く搭載されることが求められるようになる。
インテルも第14世代Coreシリーズでその方向性を打ち出しているし、アップルやGoogleがその路線である。そうなるとQualcommも乗らないわけにはいかない。
同社はARM系CPUアーキテクチャを「Oryon」に刷新したばかり。スマホ以上に、インテルの牙城であるノートPC向けプロセッサーの市場を奪いたい野心が見える。
オンデバイス生成AIは戦いの最前線になっていくだろう。
アップル、3nmプロセスで製造した「Apple M3」発表! ProとMaxはCPUのコア数も増加(10月31日)
アップルもプロセッサーを「M3」シリーズに刷新した。
とはいえ、アップルは生成AIの話はしない。彼らは「できることよりユーザーが使う機能」で語る側面が強く、他社が乗っているトレンドにはあえて乗らない「感じを出す」のが好きな企業ではある。
だが、生成AIを意識していないわけではない。
特に、ハイエンドモデルの「M3 Max」搭載製品では、メインメモリーの搭載可能容量を128GBまで増やした。
生成AI向けのプロセッサーといえばGPUであり、NVIDIAの独壇場ではあるのだが、実はMacも注目されている。今のMacは、メインメモリーとビデオメモリーを共有する「ユニファイドメモリー構造(UMA)」であるため、128GBクラスのメモリーが搭載されていると、機械学習の開発や生成AIのローカル活用にはかなりの余裕が出てくる。
128GBクラスのメモリーが載ったGPUを買うのは大変だが、Macなら(それでも最低70万円はするが)、ノート型でも扱える。
今回メモリーを増やしたのは、まず間違いなく、そうしたニーズを考えてのことだろう。
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります