Open WebUIは、ローカルで動かすLLM(例:LLaMA、Mistral、Gemmaなど)と接続して、ChatGPTのような対話型UIを提供するオープンソースのフロントエンドツールです。以下に初心者向けに使い方をステップバイステップで説明します。
前提:Open WebUIの概要
- GitHub: Open WebUI (GitHub)
ライセンス:BSD 3条項ライセンスがベースの独自ライセンス
https://github.com/open-webui/open-webui - ドキュメント: Open WebUI Docs
https://docs.openwebui.com/
Open WebUIは、ローカルLLM(例:ollama
, lmstudio
, llama.cpp
など)にHTTP API経由で接続し、チャットが可能なWeb UIを提供します。
使い方ステップ(Docker前提)
以下は Dockerが使える環境(Windows/macOS/Linux)での使用方法です。
事前準備「Docker Desktop for Windows」をインストールする手順 (Windows版)
こちらの手順を参考にして、「Docker Desktop for Windows」をインストールして、Linuxコンテナモードで起動してください。
Docker(Linuxコンテナモード)が起動していることを確認
PowerShell または コマンドプロンプト を開く
- スタートメニューで「PowerShell」と検索して起動
- または「コマンドプロンプト(cmd)」でもOKです
PowerShellまたはコマンドプロンプトから次のコマンドを実行して、dockerのバージョンを確認します。
docker version
実行結果の例)正しくバージョンが取得できていればOKです。
Client:
Version: 28.0.4
API version: 1.48
Go version: go1.23.7
Git commit: b8034c0
Built: Tue Mar 25 15:07:48 2025
OS/Arch: windows/amd64
Context: desktop-linux
Server: Docker Desktop 4.40.0 (187762)
Engine:
Version: 28.0.4
API version: 1.48 (minimum version 1.24)
Go version: go1.23.7
Git commit: 6430e49
Built: Tue Mar 25 15:07:22 2025
OS/Arch: linux/amd64
Experimental: false
・・・
Open WebUI の起動(Docker)
次のコマンドは、Open WebUI を Docker コンテナで起動し、ポート3000でアクセス可能にしつつ、Ollamaサーバーと接続し、データを永続化する設定でバックグラウンド実行するものです。
コマンドを実行:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
*すでにポート3000を利用中の場合は、3001:8080など任意の値に変更してください。
アクセスするURL例:http://localhost:3001
コマンドの説明
項目 | 内容 | 解説 |
---|---|---|
docker run | Docker コマンド | Docker コンテナを新規作成して起動するコマンド |
-d | デタッチドモード | バックグラウンドでコンテナを実行(ログは非表示)します。 |
-p 3000:8080 | ポートマッピング | ホストの 3000 番ポート → コンテナ内の 8080 番ポートに転送。ブラウザから http://localhost:3000 でアクセス可能になります。*すでにポート3000を利用中の場合は、3001:8080など任意の値に変更してください。 アクセスするURL例: http://localhost:3001 |
-e OLLAMA_BASE_URL=http://192.168.1.10:11434 | 環境変数の設定 | Open WebUI に対して、Ollama API のURLを指定。この例では 192.168.1.10:11434 にOllamaが起動している前提です。 |
-v open-webui:/app/backend/data | データボリュームの永続化 | open-webui という名前の Docker ボリュームを使い、アプリのデータディレクトリ /app/backend/data に永続化。Open WebUIの設定や会話履歴などが保持されます。 |
--name open-webui | コンテナ名の指定 | このコンテナに open-webui という名前をつけます。同名のコンテナは同時に複数存在できないため注意。 |
--restart always | 自動再起動設定 | コンテナが停止しても Docker が自動で再起動します。PC再起動時も自動再起動されるので、サービス運用に適しています。 |
ghcr.io/open-webui/open-webui:main | 使用するDockerイメージ | Open WebUI の公式Dockerイメージを GitHub Container Registry から取得し、タグ main を使用して起動します。 |
備考:関連する主なdocker
コマンド
コマンド | 目的 |
---|---|
docker run | 新規にコンテナを作成して起動(初回 or 再作成時) |
docker start コンテナ名 | 既に存在する 停止中のコンテナを再起動(削除なし) |
docker restart コンテナ名 | 停止→再起動(1コマンドで) |
docker stop コンテナ名 | コンテナを一時的に停止(削除はしない) |
docker rm コンテナ名 | コンテナを完全に削除(名前・設定ごと) |
docker ps -a | すべてのコンテナ(停止中も含む)を確認 |
docker volume ls | ボリューム一覧を確認 |
実行例1) open-webuiの停止→起動
docker stop open-webui
docker start open-webui
実行例2) open-webuiの削除→再作成
docker rm
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
上記コマンド実行時のopen-webuiの実体の保存場所
内容 | 場所 |
---|---|
実行ファイル/コード | コンテナ内(ホストの /var/lib/docker/ 以下に格納。直接アクセス非推奨) |
データ(チャット履歴など) | -v open-webui-data:/app/backend/data で指定した Docker volume に保存 |
表示されるWeb画面 | コンテナ内にあるフロントエンド(Next.jsなど)で提供 |
事前準備「Ollama」をインストールする手順 (Windows版)
こちらの記事で、Ollamaをインストールして、ローカルLLMを起動する手順を解説しています。
Ollamaが起動していることを確認
ollama run モデル名
例)ollama run llama3 などで、モデルを起動します。
ブラウザでアクセス
以下のURLにアクセス:
http://localhost:ポート番号
ポート番号は必要に応じて指定した値(3001など任意)に変更してください。
http://localhost:3000
ログインやユーザー登録が表示されるので、任意の名前・パスワードを設定すればログインできます。



モデルと会話する
- 初回起動時、Ollamaのモデルを認識し自動で利用できます。
- モデルを複数用意している場合は、チャットごとに切り替え可能です。
- プロンプトテンプレート、システムプロンプトなどの編集も可能です。

2回目以降の起動方法
Docker Desktop を起動する(Linuxコンテナモード)
Windowsの場合、Docker Desktopを起動(Linuxコンテナモード)になっていることを確認する。
Ollama を起動する 例)ollama run llama3
ollama run モデル名
Ollama はバックグラウンドでデーモンが動作する設計なので、一度起動すれば常駐します。
ターミナルを閉じるとOllamaプロセスも停止することがあります。その場合は改めて同様のコマンドで再起動します。
Open WebUI を起動する
Open WebUI を Docker コンテナとして導入している場合:
※open-webui
はコンテナ名です。別名で設定している場合はその名前で起動してください。
docker start open-webui
ブラウザでOpen WebUI にアクセスする
http://localhost:ポート番号
デフォルトではポート番号は 3000
または 8080
です。
→ docker ps
で実際に公開されているポート番号を確認できます。
公式ドキュメント
- Open WebUI 公式GitHub
https://github.com/open-webui/open-webui - Open WebUI ドキュメント
https://docs.openwebui.com/
よくある質問
質問 | 回答 |
---|---|
モデルが出てこない | Ollamaが起動していない/API接続先URLの指定ミス |
ポート3000以外に変更したい | -p 3000:3000 を -p 8080:3000 のように変更 |
日本語が通じるか? | モデルが対応していればOK(LLaMA3、Qwen、Gemmaなど) |
GPU使用モデルとの相性は? | Ollamaで起動できれば問題なし。GPU環境に依存 |
コメント