VSCodeとNeovimでCodeGemmaを使用できるようにする

VSCodeとNeovimでCodeGemmaを使用できるようにする

先日、CodeGemmaが更新されました。

ai.google.dev

ローカルで会話しながら開発ができるものを探していたので早速VSCodeやNeovimで試してみました。

Linux環境の話でWindowsMacは動作未確認です

今回は導入編です。

ollamaをインストールする

まずは公式のGithubにあるようにインストールします。

github.com

Linuxでは下記コマンドを実行します

curl -fsSL https://ollama.com/install.sh | sh

GPUを積んでいない場合は完了時にWARNINGが表示されますが、CPUでも動作自体はします。

ただし、動作が遅いので使い物になりません。

Core Ultraに期待。

CodeGemmaをpullする

インストールが完了するとollamaコマンドを使えるようになります。

下記コマンドを実行してCodeGemmaのモデルを落としてきます

ollama pull codegemma:latest

これで使えるようになるのはCodeGemmaの7Bモデルです。

CodeGemmaに期待するのは Github CopilotGemini Code Assist のような会話をしながらの開発なので7Bモデルが必要です。

※ 2Bモデルはコード補完のみの組み込み用です

CodeGemmaの他にも色々使えるので試してみると楽しいかもしれません

ollama.com

VSCode拡張機能を使用する

VSCodeではContinueを使用します。

continue.dev

インストールができたらアイコンをクリックしてウィンドウを表示し、右下の歯車マークからconfig.jsonを編集します。

modelsとtabAutocompleteModelの項目をcodegemmaのものに書き換えてください

実体は ~/.continue/ にあります

  "models": [
    {
      "title": "codegemma",
      "provider": "ollama",
      "model": "codegemma:latest"
    }
  ],
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

  "tabAutocompleteModel": {
    "title": "codegemma",
    "provider": "ollama",
    "model": "codegemma:latest"
  },

設定を保存すればそのままチャット等ができるようになります。

Neovimのプラグインを使用する

Neovimではgen.nvimを使用します。

github.com

setup(lazy)は以下のようにします

{
  "David-Kunz/gen.nvim",
  opts = {
    model = "codegemma:latest", -- The default model to use.
    show_model = true, -- Displays which model you are using at the beginning of your chat session.
  }
},

インストールが出来たら :Gen からChatを起動して動作を確認することができます。