MENU
Language

【Windows対応】Open WebUIでローカルLLMを使ってみよう!(Docker+Ollama)インストール手順と実行方法を解説

Open WebUIは、ローカルで動かすLLM(例:LLaMA、Mistral、Gemmaなど)と接続して、ChatGPTのような対話型UIを提供するオープンソースのフロントエンドツールです。以下に初心者向けに使い方をステップバイステップで説明します。

目次

前提:Open WebUIの概要

Open WebUIは、ローカルLLM(例:ollama, lmstudio, llama.cppなど)にHTTP API経由で接続し、チャットが可能なWeb UIを提供します。

使い方ステップ(Docker前提)

以下は Dockerが使える環境(Windows/macOS/Linux)での使用方法です。

事前準備「Docker Desktop for Windows」をインストールする手順 (Windows版)

こちらの手順を参考にして、「Docker Desktop for Windows」をインストールして、Linuxコンテナモードで起動してください。

Docker(Linuxコンテナモード)が起動していることを確認

PowerShell または コマンドプロンプト を開く

  1. スタートメニューで「PowerShell」と検索して起動
  2. または「コマンドプロンプト(cmd)」でもOKです

PowerShellまたはコマンドプロンプトから次のコマンドを実行して、dockerのバージョンを確認します。

docker version

実行結果の例)正しくバージョンが取得できていればOKです。

Client:
 Version:           28.0.4
 API version:       1.48
 Go version:        go1.23.7
 Git commit:        b8034c0
 Built:             Tue Mar 25 15:07:48 2025
 OS/Arch:           windows/amd64
 Context:           desktop-linux

Server: Docker Desktop 4.40.0 (187762)
 Engine:
  Version:          28.0.4
  API version:      1.48 (minimum version 1.24)
  Go version:       go1.23.7
  Git commit:       6430e49
  Built:            Tue Mar 25 15:07:22 2025
  OS/Arch:          linux/amd64
  Experimental:     false
・・・

Open WebUI の起動(Docker)

次のコマンドは、Open WebUI を Docker コンテナで起動し、ポート3000でアクセス可能にしつつ、Ollamaサーバーと接続し、データを永続化する設定でバックグラウンド実行するものです。

コマンドを実行:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

*すでにポート3000を利用中の場合は、3001:8080など任意の値に変更してください。
アクセスするURL例:http://localhost:3001

コマンドの説明

項目内容解説
docker runDocker コマンドDocker コンテナを新規作成して起動するコマンド
-dデタッチドモードバックグラウンドでコンテナを実行(ログは非表示)します。
-p 3000:8080ポートマッピングホストの 3000 番ポート → コンテナ内の 8080 番ポートに転送。ブラウザから http://localhost:3000 でアクセス可能になります。
*すでにポート3000を利用中の場合は、3001:8080など任意の値に変更してください。
アクセスするURL例:http://localhost:3001
-e OLLAMA_BASE_URL=http://192.168.1.10:11434環境変数の設定Open WebUI に対して、Ollama API のURLを指定。この例では 192.168.1.10:11434 にOllamaが起動している前提です。
-v open-webui:/app/backend/dataデータボリュームの永続化open-webui という名前の Docker ボリュームを使い、アプリのデータディレクトリ /app/backend/data に永続化。Open WebUIの設定や会話履歴などが保持されます。
--name open-webuiコンテナ名の指定このコンテナに open-webui という名前をつけます。同名のコンテナは同時に複数存在できないため注意。
--restart always自動再起動設定コンテナが停止しても Docker が自動で再起動します。PC再起動時も自動再起動されるので、サービス運用に適しています。
ghcr.io/open-webui/open-webui:main使用するDockerイメージOpen WebUI の公式Dockerイメージを GitHub Container Registry から取得し、タグ main を使用して起動します。

備考:関連する主なdockerコマンド

コマンド目的
docker run新規にコンテナを作成して起動(初回 or 再作成時)
docker start コンテナ名既に存在する 停止中のコンテナを再起動(削除なし)
docker restart コンテナ名停止→再起動(1コマンドで)
docker stop コンテナ名コンテナを一時的に停止(削除はしない)
docker rm コンテナ名コンテナを完全に削除(名前・設定ごと)
docker ps -aすべてのコンテナ(停止中も含む)を確認
docker volume lsボリューム一覧を確認

実行例1) open-webuiの停止→起動

docker stop open-webui
docker start open-webui

実行例2) open-webuiの削除→再作成

docker rm
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

上記コマンド実行時のopen-webuiの実体の保存場所

内容場所
実行ファイル/コードコンテナ内(ホストの /var/lib/docker/ 以下に格納。直接アクセス非推奨)
データ(チャット履歴など)-v open-webui-data:/app/backend/data で指定した Docker volume に保存
表示されるWeb画面コンテナ内にあるフロントエンド(Next.jsなど)で提供

事前準備「Ollama」をインストールする手順 (Windows版)

こちらの記事で、Ollamaをインストールして、ローカルLLMを起動する手順を解説しています。

Ollamaが起動していることを確認

ollama run モデル名

例)ollama run llama3 などで、モデルを起動します。

ブラウザでアクセス

以下のURLにアクセス:

http://localhost:ポート番号

ポート番号は必要に応じて指定した値(3001など任意)に変更してください。

http://localhost:3000

ログインやユーザー登録が表示されるので、任意の名前・パスワードを設定すればログインできます。

http://localhost:3000/ へのアクセス結果

モデルと会話する

  • 初回起動時、Ollamaのモデルを認識し自動で利用できます。
  • モデルを複数用意している場合は、チャットごとに切り替え可能です。
  • プロンプトテンプレート、システムプロンプトなどの編集も可能です。

2回目以降の起動方法

Docker Desktop を起動する(Linuxコンテナモード)

Windowsの場合、Docker Desktopを起動(Linuxコンテナモード)になっていることを確認する。

Ollama を起動する 例)ollama run llama3

ollama run モデル名

Ollama はバックグラウンドでデーモンが動作する設計なので、一度起動すれば常駐します。
ターミナルを閉じるとOllamaプロセスも停止することがあります。その場合は改めて同様のコマンドで再起動します。

Open WebUI を起動する

Open WebUI を Docker コンテナとして導入している場合:
open-webui はコンテナ名です。別名で設定している場合はその名前で起動してください。

docker start open-webui

ブラウザでOpen WebUI にアクセスする

http://localhost:ポート番号

デフォルトではポート番号は 3000 または 8080 です。
docker ps で実際に公開されているポート番号を確認できます。

公式ドキュメント

よくある質問

質問回答
モデルが出てこないOllamaが起動していない/API接続先URLの指定ミス
ポート3000以外に変更したい-p 3000:3000-p 8080:3000 のように変更
日本語が通じるか?モデルが対応していればOK(LLaMA3、Qwen、Gemmaなど)
GPU使用モデルとの相性は?Ollamaで起動できれば問題なし。GPU環境に依存
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AIアーティスト | エンジニア | ライター | 最新のAI技術やトレンド、注目のモデル解説、そして実践に役立つ豊富なリソースまで、幅広い内容を記事にしています。フォローしてねヾ(^^)ノ

コメント

コメントする

目次