Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 大規模言語モデル(LLM)をローカル環境で実行することへの需要が高まっています。本記事では、2025年1月にリリースされたDeepSeek-R1モデルファミリーを、Ollamaを使用してローカル環境で実行する方法について解説します。 Roo Codeと使用するには下記も御覧ください 環境要件 実行環境には以下が必要です: Ollamaがインストール済みであること GPUを使用する場合:NVIDIA GPUと対応するドライバー モデルに応じた十分なRAMとGPUメモリ(詳細は後述) まだOllamaをインストールしていない場合は、Olla