【WSL2対応】UbuntuにOllamaをインストールしてローカルLLMを試してみた

こんにちは。今回は、WSL2 上の Ubuntu に Ollama(オラマ) をインストールして、ローカルで LLM(大規模言語モデル)を試す手順を紹介します。
最近は ChatGPT などの AI が身近になりましたが、「自分のPC上で動かせるAI」があるともっと自由度が高まりますよね。Ollama はまさにそんな手軽にローカルで動かせる AI エンジンです。
目次
Ollamaとは
Ollamaは、以下の特徴があります。
- LLaMA や Mistral、Gemma などの軽量 LLM を動かせる
- Mac、Linux(WSL2 含む)に対応
- GPU がなくても動作可能(ただし CPU は高負荷)
ローカル環境でも動作させることができるため、自分のマシンにインストールして動かします。
ローカルでAI(LLM)を使うメリット
ローカル環境でAIを使うメリットは以下の通りです。
- セキュリティの確保(データが外部に送信されない)
- インターネット接続が不要
- コスト(サブスク)の削減
- カスタマイズの自由度が高い
ローカルでAI(LLM)を使うデメリット
ローカル環境でAIを使うデメリットは以下の通りです。
- スペックの低いPCだと動作が重い
- モデルサイズが大きいため、ストレージの空き容量が必要
- 最先端のクラウドモデル(GPT-4など)と比べて精度は落ちる
- 電力消費量が多い
我が家のPCスペック
OllamaをインストールするPCのスペックは以下の通りです。
- 11th Gen Intel(R) Core(TM) i7-11700F @ 2.50GHz 2.50 GHz
- 実装 RAM:32.0 GB
- ストレージ:SSD : ADATA SU630 480GB
- NVIDIA GeForce RTX 3060Ti 8GB
- OS : Windows 11 Home 24H2
- WSL2 OS : Ubuntu 22.04.3 LTS
💡補足
WSL のバージョンが「2」かどうかは以下で確認できます。
wsl -l -v
Ubuntu が VERSION 2 と表示されていれば OK です。
Ollamaインストール
1. Ubuntu を最新の状態にしておく
sudo apt update && sudo apt upgrade -y
2. curl と gnupg がインストールされているか確認
sudo apt install curl gnupg -y
3. Ollama の GPG 鍵とリポジトリを追加
以下 1 行でリポジトリ登録からインストールまで完了します。
curl -fsSL https://ollama.com/install.sh | sh
4. ollama
コマンドが使えるか確認
ollama --version
バージョンが表示されればインストール成功です。
5. ollama
サービス設定
DockerなどのコンテナからWSLのOllamaサーバーにアクセスする場合は、Ollamaサーバーが外部からのアクセスを許可できるように設定します。
/etc/systemd/system/ollama.service
以下の通り/etc/systemd/system/ollama.service 内のEnvironmentにOLLAMA_HOSTを追加します。
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
サービスを再起動します。
sudo systemctl restart ollama
モデルダウンロード
例として Gemma3:12b
を使う場合:
ollama pull Gemma3:12b
初回はモデルをダウンロードするため数 GB の通信が発生します。完了後、自動的に対話モードに入ります。
Ollama実行
例として Gemma3:12b
を使う場合:
ollama run Gemma3:12b
一部モデル(llama3, mistral, gemma など)は日本語にもある程度対応しています。ただし日本語特化モデルではないため、誤変換が出る点には注意してください。
まとめ
Ollama を WSL2 上の Ubuntu にインストールすることで、ローカル環境で手軽に AI と対話できるようになりました。今後は、これを活用してチャットボットを作ったり、Dify などのフレームワークと連携する予定です。
0 件のコメント:
コメントを投稿
コメントをお待ちしています。