ローカル環境で手軽に大規模言語モデル (LLM) を試せる Ollama と phi-4 モデル、そして VS Code の拡張機能である Cool Cline を組み合わせて、コード生成を行うメモです。WSL2でもできると思います。 環境 Ubuntu 24.04 Docker GeForce RTX 4060Ti(VRAM 16GB) VS Code Cool Cline 拡張機能 手順 DockerのインストールとNVIDIA Container Toolkitの設定 DockerでGPUを使えるようにします。以下の記事を参考にしました。 Ollamaの起動とphi-4モデルのダウンロード Ollamaのコンテナを起動します。モデルはコンテナの/root/.ollamaにダウンロードされるのでローカルの適当なフォルダをマウントします。ポートの11434はllamaからとってきてるみた
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く