Open WebUI es una herramienta front-end de código abierto que se conecta con LLM que se ejecutan localmente (por ejemplo, LLaMA, Mistral, Gemma, etc.) para proporcionar una interfaz de usuario interactiva similar a ChatGPT. A continuación se muestra una guía paso a paso sobre cómo usarlo para principiantes.
Premisa: Descripción general de Open WebUI
- GitHub: Abrir WebUI (GitHub)
Licencia: Licencia propietaria basada en la licencia BSD 3 cláusula
https://github.com/open-webui/open-webui - Documentación: Documentos de interfaz de usuario web abiertos
https://docs.openwebui.com/
Open WebUI se conecta a LLM locales (por ejemplo,ollamalmstudiollama.cpp etc.) a través de la API HTTP para proporcionar una interfaz de usuario web que permita chatear.
Pasos de uso (local de Docker)
A continuación, le indicamos cómo usarlo en entornos donde se puede usar Docker (Windows / macOS / Linux).
Preparación: Pasos para instalar Docker Desktop para Windows (versión de Windows)
Siga estas instrucciones para instalar Docker Desktop para Windows e iniciarlo en modo contenedor de Linux.

Asegúrese de que Docker (modo contenedor de Linux) se esté ejecutando
Abrir PowerShell o símbolo del sistema
- Busque «PowerShell» en el menú Inicio y ejecútelo
- O puede usar «Símbolo del sistema (cmd)»
Ejecute el siguiente comando desde PowerShell o el símbolo del sistema para comprobar la versión de Docker:
docker versionEjemplo de resultado de ejecución) Si ha podido obtener la versión correctamente, está bien.
Client:
Version: 28.0.4
API version: 1.48
Go version: go1.23.7
Git commit: b8034c0
Built: Tue Mar 25 15:07:48 2025
OS/Arch: windows/amd64
Context: desktop-linux
Server: Docker Desktop 4.40.0 (187762)
Engine:
Version: 28.0.4
API version: 1.48 (minimum version 1.24)
Go version: go1.23.7
Git commit: 6430e49
Built: Tue Mar 25 15:07:22 2025
OS/Arch: linux/amd64
Experimental: false
・・・Inicio de Open WebUI (Docker)
El siguiente comando inicia Open WebUI en un contenedor Docker, haciéndolo accesible en el puerto 3000, mientras se conecta al servidor Ollama y lo ejecuta en segundo plano con una configuración que conserva los datos.
Ejecute el comando:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main*Si ya está utilizando el puerto 3000, cámbielo a un valor arbitrario, como 3001:8080.
Ejemplos de URL a las que acceder:http://localhost:3001
Descripción del comando
| artículo | sustancia | explicación |
|---|---|---|
docker run | Comandos de Docker | Comando para crear e iniciar un nuevo contenedor de Docker |
-d | Modo separado | Ejecute el contenedor en segundo plano (oculte los registros). |
-p 3000:8080 | Mapeo de puertos | El puerto del 3000 host → reenvía al puerto del 8080 contenedor. Será accesible desde http://localhost:3000 el navegador.*Si ya está utilizando el puerto 3000, cámbielo a un valor arbitrario, como 3001:8080. Ejemplos de URL a las que acceder: http://localhost:3001 |
-e OLLAMA_BASE_URL=http://192.168.1.10:11434 | Configuración de variables de entorno | Especifique la URL de la API de Ollama para Open WebUI. En este ejemplo se supone 192.168.1.10:11434 que Ollama se ejecuta en . |
-v open-webui:/app/backend/data | Persistencia de volúmenes de datos | open-webui Use un volumen de Docker llamado Persist en el directorio /app/backend/data de datos de la aplicación. Se mantienen los ajustes de la interfaz de usuario web, el historial de conversaciones, etc. abiertos. |
--name open-webui | Especificar un nombre de contenedor | Nombra este contenedor open-webui . Tenga en cuenta que los contenedores con el mismo nombre no pueden existir al mismo tiempo. |
--restart always | Configuración de reinicio automático | Docker se reinicia automáticamente cuando el contenedor se detiene. También se reinicia automáticamente cuando se reinicia la PC, por lo que es adecuado para la operación de servicio. |
ghcr.io/open-webui/open-webui:main | Imagen de Docker que se va a usar | Obtenga la imagen oficial de Docker para Open WebUI de GitHub Container Registry y ejecútela con etiquetas main . |
Nota: Comandos principalesdocker involucrados
| mandar | propósito |
|---|---|
docker run | Crear un nuevo contenedor e iniciarlo (primera vez o volver a crear) |
docker start コンテナ名 | Reiniciar un contenedor que ya existe en una parada (sin eliminar) |
docker restart コンテナ名 | Detener→ Reiniciar (en 1 comando) |
docker stop コンテナ名 | Detener temporalmente (no eliminar) los contenedores |
docker rm コンテナ名 | Eliminar contenedores de forma permanente (por nombre y configuración) |
docker ps -a | Ver todos los contenedores, incluso los caídos |
docker volume ls | Comprobar la lista de volúmenes |
Ejemplo 1) Detener → iniciar open-webui
docker stop open-webui
docker start open-webuiEjemplo 2) Eliminar → volver a crear open-webui
docker rm
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://192.168.1.10:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainDónde se almacena la entidad open-webui al ejecutar el comando anterior
| sustancia | lugar |
|---|---|
| Ejecutable/Código | Dentro del contenedor (almacenado debajo en el host. /var/lib/docker/ Acceso directo obsoleto) |
| Datos (por ejemplo, historial de chat) | -v open-webui-data:/app/backend/data Guarde en el volumen de Docker especificado en el |
| Pantalla web mostrada | Servido en la parte delantera (por ejemplo, Next.js) en el recipiente |
Procedimiento de preparación para instalar «Ollama» (versión de Windows)
En este artículo se explican los pasos para instalar Ollama y lanzar un LLM local.

Verifique que Ollama se esté ejecutando
ollama run モデル名Por ejemplo, ollama run llama3, etc., para iniciar el modelo.
Acceso con un navegador
Visite la siguiente URL:
http://localhost:ポート番号Cambie el número de puerto al valor especificado (por ejemplo, 3001, opcional) según sea necesario.
http://localhost:3000Se mostrará el inicio de sesión y el registro de usuario, por lo que puede iniciar sesión configurando cualquier nombre y contraseña.



Habla con un modelo
- Cuando lo inicia por primera vez, reconoce y utiliza automáticamente los modelos de Ollama.
- Si tienes varios modelos, puedes cambiar entre ellos para cada chat.
- También puede editar plantillas de solicitudes, solicitudes del sistema y más.

Cómo iniciar el segundo y los siguientes tiempos
Inicie Docker Desktop (modo contenedor de Linux)
Para Windows, asegúrese de tener Docker Desktop iniciado (modo contenedor de Linux).
Ejemplo de lanzamiento de Ollama)ollama run llama3
ollama run モデル名Ollama está diseñado con un demonio que se ejecuta en segundo plano, por lo que una vez activado, residirá.
Cerrar el terminal también puede detener el proceso de Ollama. En ese caso, reinicie de nuevo con el mismo comando.
Iniciar Open WebUI
Si está implementando Open WebUI como un contenedor de Docker:open-webui * es el nombre del contenedor. Si lo establece en un alias, comience con ese nombre.
docker start open-webuiAcceda a Open WebUI en su navegador
http://localhost:ポート番号De forma predeterminada, el número de puerto es 3000 O .8080docker ps Puede ver el número de puerto expuesto real en →.
Documentación oficial
- GitHub oficial de Open WebUI
https://github.com/open-webui/open-webui - Documentación de OpenForm WebUI
https://docs.openwebui.com/
Preguntas frecuentes
| pregunta | respuesta |
|---|---|
| El modelo no sale | Ollama no se inicia/La URL de conexión API se especifica incorrectamente |
| Quiero cambiar a un puerto que no sea 3000 | -p 3000:3000 -p 8080:3000 Cambiar a |
| ¿Puedes entender japonés? | Si el modelo es compatible (LLaMA3, Qwen, Gemma, etc.), |
| ¿Qué tan compatible es con los modelos que usan GPU? | Si puedes iniciarlo con Ollama, no hay problema. Depende del entorno de GPU |
コメント