【WSL2対応】UbuntuにOllamaをインストールしてローカルLLMを試してみた

Ollamaを用いたローカルAI環境のイメージ図

こんにちは。今回は、WSL2 上の Ubuntu に Ollama(オラマ) をインストールして、ローカルで LLM(大規模言語モデル)を試す手順を紹介します。

最近は ChatGPT などの AI が身近になりましたが、「自分のPC上で動かせるAI」があるともっと自由度が高まりますよね。Ollama はまさにそんな手軽にローカルで動かせる AI エンジンです。

Ollamaとは

Ollamaは、以下の特徴があります。

  • LLaMA や Mistral、Gemma などの軽量 LLM を動かせる
  • Mac、Linux(WSL2 含む)に対応
  • GPU がなくても動作可能(ただし CPU は高負荷)

ローカル環境でも動作させることができるため、自分のマシンにインストールして動かします。

ローカルでAI(LLM)を使うメリット

ローカル環境でAIを使うメリットは以下の通りです。

  • セキュリティの確保(データが外部に送信されない)
  • インターネット接続が不要
  • コスト(サブスク)の削減
  • カスタマイズの自由度が高い

ローカルでAI(LLM)を使うデメリット

ローカル環境でAIを使うデメリットは以下の通りです。

  • スペックの低いPCだと動作が重い
  • モデルサイズが大きいため、ストレージの空き容量が必要
  • 最先端のクラウドモデル(GPT-4など)と比べて精度は落ちる
  • 電力消費量が多い

我が家のPCスペック

OllamaをインストールするPCのスペックは以下の通りです。

  • 11th Gen Intel(R) Core(TM) i7-11700F @ 2.50GHz 2.50 GHz
  • 実装 RAM:32.0 GB
  • ストレージ:SSD : ADATA SU630 480GB
  • NVIDIA GeForce RTX 3060Ti 8GB
  • OS : Windows 11 Home 24H2
  • WSL2 OS : Ubuntu 22.04.3 LTS

💡補足
WSL のバージョンが「2」かどうかは以下で確認できます。

    
wsl -l -v
    
  

UbuntuVERSION 2 と表示されていれば OK です。

Ollamaインストール

1. Ubuntu を最新の状態にしておく

    
sudo apt update && sudo apt upgrade -y
    
  

2. curl と gnupg がインストールされているか確認

     
sudo apt install curl gnupg -y
     
  

3. Ollama の GPG 鍵とリポジトリを追加

以下 1 行でリポジトリ登録からインストールまで完了します。

    
curl -fsSL https://ollama.com/install.sh | sh
    
  

4. ollama コマンドが使えるか確認

     
ollama --version
     
  

バージョンが表示されればインストール成功です。

5. ollama サービス設定

DockerなどのコンテナからWSLのOllamaサーバーにアクセスする場合は、Ollamaサーバーが外部からのアクセスを許可できるように設定します。

     
/etc/systemd/system/ollama.service
     
  

以下の通り/etc/systemd/system/ollama.service 内のEnvironmentにOLLAMA_HOSTを追加します。

     
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
     
  

サービスを再起動します。

     
sudo systemctl restart ollama
     
  

モデルダウンロード

例として Gemma3:12b を使う場合:

     
ollama pull Gemma3:12b
     
  

初回はモデルをダウンロードするため数 GB の通信が発生します。完了後、自動的に対話モードに入ります。

Ollama実行

例として Gemma3:12b を使う場合:

     
ollama run Gemma3:12b
     
  

一部モデル(llama3, mistral, gemma など)は日本語にもある程度対応しています。ただし日本語特化モデルではないため、誤変換が出る点には注意してください。

まとめ

Ollama を WSL2 上の Ubuntu にインストールすることで、ローカル環境で手軽に AI と対話できるようになりました。今後は、これを活用してチャットボットを作ったり、Dify などのフレームワークと連携する予定です。

コメント

0 件のコメント:

コメントを投稿

コメントをお待ちしています。