週刊アスキー

  • Facebookアイコン
  • Xアイコン
  • RSSフィード

完全無料!話題のDeepSeek R1をローカルで動かしてみた。MacやスマホでもOK!

2025年02月14日 10時00分更新

まとめ

 DeepSeek-R1の蒸留モデルを実際に検証してみた結果、一般的なPCやスマートフォンでも十分に動作することが確認できた。インターネット接続なしでAIを利用できるという点はやはり画期的。動作に多少時間がかかるものの実用的な範囲で利用可能だ。

 ローカルで動作するモデルには、「phi-4」や「Qwen2.5 7B」など様々な選択肢があるが、DeepSeekの特筆すべき点はオープンソースであることだ。誰でも自由に改変できるため、今後様々な派生モデルが登場することが期待できる。

 今回は3つの実行環境を検証した。LM Studioは直感的なGUIで初心者でも扱いやすく、ollamaはコマンドラインベースながら他のプログラムとの連携が容易だ。PocketPal AIはスマートフォンで場所を選ばずAIを利用できる点が魅力となっている。

 ただし、PCでの実行にはある程度のスペックが必要となる。システムメモリは16GB以上を推奨し、モデルファイルの保存には1つあたり4〜5GB程度のストレージ容量が必要だ。GPUについては、NVIDIAのグラフィックスカード(VRAM 8GB以上推奨)があれば高速な処理が可能だ。AMD GPUでも対応ツールによっては動作し、さらにGPUがなくてもApple Silicon搭載のMacで実行できることも確認できた。

 利用を検討する場合、まずは手軽にスマートフォンのPocketPal AIから試してみるのがおすすめだ。PCでの利用なら、GUI操作に慣れている人はLM Studio、コマンドラインに抵抗がない人やプログラムとの連携を考えている人はollamaが適している。

 蒸留技術による軽量化、量子化による最適化、そしてDeepSeekのようなオープンソースの基盤モデルの登場により、ローカルLLMの実用性は確実に高まっている。オープンソースモデルがさらに充実していくことで、今後も急速な進化が期待できる分野と言えるだろう。

この記事をシェアしよう

週刊アスキーの最新情報を購読しよう

本記事はアフィリエイトプログラムによる収益を得ている場合があります

この連載の記事