スマホで試してみよう
最後にスマートフォンアプリ「PocketPal AI」を試してみよう。AndoridはPlayストア、iOSはApp Storeからアプリをダウンロードしよう。なお検証したスマートフォンは「Google Pixel 9 Pro XL(16 GB RAM)」だ。
ダウンロードが終わったらタップして起動しよう。
起動直後の画面、このままでは使えないので右下の「Go to Models」をタップしてモデルをダウンロードしよう。
アプリで使えるモデルのリストが表示される。ollamaやLM Studioと違い、DeepSeekのモデルはまだ登録されていなかったため、右下の「+」をタップ、「Add From Hugging Face」をタップしよう。
もちろんここにリストされているモデルを使いたい場合はそのまま「Download」をタップすればよい。
画面下部の検索ウィンドウに「DeepSeek」と入力して検索。
いつもの「DeepSeek-R1-Distill-Llama-8B」をタップ。
このモデルには4つの量子化モデルが用意されている。量子化とは先述の通りモデルの精度をある程度犠牲にする代わりに、サイズを小さくする技術だ。
これまでのollamaやLM Studioでは自動的に4ビット(Q4)モデルが選択されていたが、PocketPal AIではまだDeepSeekがデフォルトモデルとして登録されていないため、Hugging Faceから直接ダウンロードすることになる。
ファイル名に含まれる「Q3」「Q4」「Q6」「Q8」は、それぞれ3ビット、4ビット、6ビット、8ビットでの量子化を表している。3ビット(Q3)モデルは4.32GB、8ビット(Q8)モデルは8.54GBと、ビット数が小さいほどファイルサイズは小さくなるが、その分精度は低下する。
ここではollamaやLM Studioと同じようにQ4モデルを選択し、「↓」をタップしてダウンロードしよう。
ダウンロードが開始される。4GBを超えるデータなのでWi-Fi環境を利用したほうがいいだろう。
ダウンロードが終了したら表示される「Load」をタップ。
画面上部のモデル表示欄に「DeepSeek-R1-Distill-Llama-8B」と表示されれば準備OKだ。
スマホでも会話できるかな?
では、いよいよ実験だ。画面下部の入力欄にプロンプトを入力して「紙飛行機」アイコンをタップ。
プロンプト:Introduce yourself
これだけ生成するのに10秒以上時間はかかるが、無事ローカルでも動作することがわかった。
これまでと同じモデルなので日本語性能も同程度かと思われる。ただし、このモデルをベースに日本語対応を強化したファインチューニングモデルも続々と登場しているので、試してみるのもいいだろう。
週刊アスキーの最新情報を購読しよう
本記事はアフィリエイトプログラムによる収益を得ている場合があります














