MENU
Language

[Soporte de Windows] ¡Usemos LLM locales con Open WebUI! (Docker+Ollama) Instrucciones de instalación e instrucciones de ejecución

Open WebUI es una herramienta front-end de código abierto que se conecta con LLM que se ejecutan localmente (por ejemplo, LLaMA, Mistral, Gemma, etc.) para proporcionar una interfaz de usuario interactiva similar a ChatGPT. A continuación se muestra una guía paso a paso sobre cómo usarlo para principiantes.

目次

Premisa: Descripción general de Open WebUI

Open WebUI se conecta a LLM locales (por ejemplo,ollamalmstudiollama.cpp etc.) a través de la API HTTP para proporcionar una interfaz de usuario web que permita chatear.

Pasos de uso (local de Docker)

A continuación, le indicamos cómo usarlo en entornos donde se puede usar Docker (Windows / macOS / Linux).

Preparación: Pasos para instalar Docker Desktop para Windows (versión de Windows)

Siga estas instrucciones para instalar Docker Desktop para Windows e iniciarlo en modo contenedor de Linux.

Asegúrese de que Docker (modo contenedor de Linux) se esté ejecutando

Abrir PowerShell o símbolo del sistema

  1. Busque «PowerShell» en el menú Inicio y ejecútelo
  2. O puede usar «Símbolo del sistema (cmd)»

Ejecute el siguiente comando desde PowerShell o el símbolo del sistema para comprobar la versión de Docker:

docker version

Ejemplo de resultado de ejecución) Si ha podido obtener la versión correctamente, está bien.

Client:
 Version:           28.0.4
 API version:       1.48
 Go version:        go1.23.7
 Git commit:        b8034c0
 Built:             Tue Mar 25 15:07:48 2025
 OS/Arch:           windows/amd64
 Context:           desktop-linux

Server: Docker Desktop 4.40.0 (187762)
 Engine:
  Version:          28.0.4
  API version:      1.48 (minimum version 1.24)
  Go version:       go1.23.7
  Git commit:       6430e49
  Built:            Tue Mar 25 15:07:22 2025
  OS/Arch:          linux/amd64
  Experimental:     false
・・・

Inicio de Open WebUI (Docker)

El siguiente comando inicia Open WebUI en un contenedor Docker, haciéndolo accesible en el puerto 3000, mientras se conecta al servidor Ollama y lo ejecuta en segundo plano con una configuración que conserva los datos.

Ejecute el comando:

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

*Si ya está utilizando el puerto 3000, cámbielo a un valor arbitrario, como 3001:8080.
Ejemplos de URL a las que acceder:http://localhost:3001

Descripción del comando

artículosustanciaexplicación
docker runComandos de DockerComando para crear e iniciar un nuevo contenedor de Docker
-dModo separadoEjecute el contenedor en segundo plano (oculte los registros).
-p 3000:8080Mapeo de puertosEl puerto del 3000 host → reenvía al puerto del 8080 contenedor. Será accesible desde http://localhost:3000 el navegador.
*Si ya está utilizando el puerto 3000, cámbielo a un valor arbitrario, como 3001:8080.
Ejemplos de URL a las que acceder:http://localhost:3001
-e OLLAMA_BASE_URL=http://192.168.1.10:11434Configuración de variables de entornoEspecifique la URL de la API de Ollama para Open WebUI. En este ejemplo se supone 192.168.1.10:11434 que Ollama se ejecuta en .
-v open-webui:/app/backend/dataPersistencia de volúmenes de datosopen-webui Use un volumen de Docker llamado Persist en el directorio /app/backend/data de datos de la aplicación. Se mantienen los ajustes de la interfaz de usuario web, el historial de conversaciones, etc. abiertos.
--name open-webuiEspecificar un nombre de contenedorNombra este contenedor open-webui . Tenga en cuenta que los contenedores con el mismo nombre no pueden existir al mismo tiempo.
--restart alwaysConfiguración de reinicio automáticoDocker se reinicia automáticamente cuando el contenedor se detiene. También se reinicia automáticamente cuando se reinicia la PC, por lo que es adecuado para la operación de servicio.
ghcr.io/open-webui/open-webui:mainImagen de Docker que se va a usarObtenga la imagen oficial de Docker para Open WebUI de GitHub Container Registry y ejecútela con etiquetas main .

Nota: Comandos principalesdocker involucrados

mandarpropósito
docker runCrear un nuevo contenedor e iniciarlo (primera vez o volver a crear)
docker start コンテナ名Reiniciar un contenedor que ya existe en una parada (sin eliminar)
docker restart コンテナ名Detener→ Reiniciar (en 1 comando)
docker stop コンテナ名Detener temporalmente (no eliminar) los contenedores
docker rm コンテナ名Eliminar contenedores de forma permanente (por nombre y configuración)
docker ps -aVer todos los contenedores, incluso los caídos
docker volume lsComprobar la lista de volúmenes

Ejemplo 1) Detener → iniciar open-webui

docker stop open-webui
docker start open-webui

Ejemplo 2) Eliminar → volver a crear open-webui

docker rm
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Dónde se almacena la entidad open-webui al ejecutar el comando anterior

sustancialugar
Ejecutable/CódigoDentro del contenedor (almacenado debajo en el host. /var/lib/docker/ Acceso directo obsoleto)
Datos (por ejemplo, historial de chat)-v open-webui-data:/app/backend/data Guarde en el volumen de Docker especificado en el
Pantalla web mostradaServido en la parte delantera (por ejemplo, Next.js) en el recipiente

Procedimiento de preparación para instalar «Ollama» (versión de Windows)

En este artículo se explican los pasos para instalar Ollama y lanzar un LLM local.

Verifique que Ollama se esté ejecutando

ollama run モデル名

Por ejemplo, ollama run llama3, etc., para iniciar el modelo.

Acceso con un navegador

Visite la siguiente URL:

http://localhost:ポート番号

Cambie el número de puerto al valor especificado (por ejemplo, 3001, opcional) según sea necesario.

http://localhost:3000

Se mostrará el inicio de sesión y el registro de usuario, por lo que puede iniciar sesión configurando cualquier nombre y contraseña.

Resultados del acceso a http://localhost:3000/

Habla con un modelo

  • Cuando lo inicia por primera vez, reconoce y utiliza automáticamente los modelos de Ollama.
  • Si tienes varios modelos, puedes cambiar entre ellos para cada chat.
  • También puede editar plantillas de solicitudes, solicitudes del sistema y más.

Cómo iniciar el segundo y los siguientes tiempos

Inicie Docker Desktop (modo contenedor de Linux)

Para Windows, asegúrese de tener Docker Desktop iniciado (modo contenedor de Linux).

Ejemplo de lanzamiento de Ollama)ollama run llama3

ollama run モデル名

Ollama está diseñado con un demonio que se ejecuta en segundo plano, por lo que una vez activado, residirá.
Cerrar el terminal también puede detener el proceso de Ollama. En ese caso, reinicie de nuevo con el mismo comando.

Iniciar Open WebUI

Si está implementando Open WebUI como un contenedor de Docker:
open-webui * es el nombre del contenedor. Si lo establece en un alias, comience con ese nombre.

docker start open-webui

Acceda a Open WebUI en su navegador

http://localhost:ポート番号

De forma predeterminada, el número de puerto es 3000 O .8080
docker ps Puede ver el número de puerto expuesto real en →.

Documentación oficial

Preguntas frecuentes

preguntarespuesta
El modelo no saleOllama no se inicia/La URL de conexión API se especifica incorrectamente
Quiero cambiar a un puerto que no sea 3000-p 3000:3000 -p 8080:3000 Cambiar a
¿Puedes entender japonés?Si el modelo es compatible (LLaMA3, Qwen, Gemma, etc.),
¿Qué tan compatible es con los modelos que usan GPU?Si puedes iniciarlo con Ollama, no hay problema. Depende del entorno de GPU
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

AIアーティスト | エンジニア | ライター | 最新のAI技術やトレンド、注目のモデル解説、そして実践に役立つ豊富なリソースまで、幅広い内容を記事にしています。フォローしてねヾ(^^)ノ

コメント

コメントする

目次