VSCodeとNeovimでCodeGemmaを使用できるようにする
先日、CodeGemmaが更新されました。
ローカルで会話しながら開発ができるものを探していたので早速VSCodeやNeovimで試してみました。
※ Linux環境の話でWindowsやMacは動作未確認です
今回は導入編です。
ollamaをインストールする
まずは公式のGithubにあるようにインストールします。
Linuxでは下記コマンドを実行します
curl -fsSL https://ollama.com/install.sh | sh
GPUを積んでいない場合は完了時にWARNINGが表示されますが、CPUでも動作自体はします。
ただし、動作が遅いので使い物になりません。
Core Ultraに期待。
CodeGemmaをpullする
インストールが完了するとollamaコマンドを使えるようになります。
下記コマンドを実行してCodeGemmaのモデルを落としてきます
ollama pull codegemma:latest
これで使えるようになるのはCodeGemmaの7Bモデルです。
CodeGemmaに期待するのは Github Copilot
や Gemini Code Assist
のような会話をしながらの開発なので7Bモデルが必要です。
※ 2Bモデルはコード補完のみの組み込み用です
CodeGemmaの他にも色々使えるので試してみると楽しいかもしれません
VSCodeの拡張機能を使用する
インストールができたらアイコンをクリックしてウィンドウを表示し、右下の歯車マークからconfig.jsonを編集します。
modelsとtabAutocompleteModelの項目をcodegemmaのものに書き換えてください
実体は ~/.continue/
にあります
"models": [ { "title": "codegemma", "provider": "ollama", "model": "codegemma:latest" } ], ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ "tabAutocompleteModel": { "title": "codegemma", "provider": "ollama", "model": "codegemma:latest" },
設定を保存すればそのままチャット等ができるようになります。
Neovimのプラグインを使用する
Neovimではgen.nvimを使用します。
setup(lazy)は以下のようにします
{ "David-Kunz/gen.nvim", opts = { model = "codegemma:latest", -- The default model to use. show_model = true, -- Displays which model you are using at the beginning of your chat session. } },
インストールが出来たら :Gen
からChatを起動して動作を確認することができます。