処理が高速、プライバシーにも配慮できるが、性能は発展途上
では実際のところ、デバイス上で処理するというのはどんなメリットがあるのか。
ある程度の質問や要望に対しては端末上で処理してしまうため、反応速度が速いことが魅力といえる。また、個人的な情報が端末上だけで処理され、ネットに流れないため、プライバシーを守った上でAI処理に頼れるという利点もある。
また、会話ごとにインターネットにデータが流れないと言うことで、データ消費量を抑えられるというメリットもありそうだ。
ただし、クアルコムが見せてくれたデモではメタの「Llama 2」(大規模言語モデル)を使っており、最新のデータを元にAIが答えるということは不可能、というか無理な感じであった。また、固有名詞も苦手のようだ。
当然のことながら、デバイス上でのAI処理には、クラウドに比べてかなりの制約があるため、実際はデバイス上のAI処理とクラウドの処理というハイブリッドなカタチになっていきそうだ。
たとえば「東京からマウイまでの行き方」「年末年始に旅行したい」「大人2人と子ども2人」といった条件をデバイス上のAIと対話して条件を決めつつ、最後の最後でクラウドに質問を飛ばし、航空券検索サイトからベストな条件だけを抜き出し、AIが答えてくれる……といった使い方になりそうだ。
週刊アスキーの最新情報を購読しよう