Veamos como integrar Open Web UI en nuestro laboratorio local. Esta es un herramienta ideal para poner a prueba modelos LLM pequeños que podamos correr en nuestro equipo mediante Ollama o para implementar un RAG con nuestros propios archivos.
Open WebUI es una plataforma de IA autoalojada, extensible , rica en funciones y fácil de usar, diseñada para funcionar completamente sin conexión. Es compatible con varios ejecutores LLM como Ollama y API compatibles con OpenAI , y cuenta con un motor de inferencia integrado para RAG, lo que la convierte en una potente solución para la implementación de IA .” Fuente: https://github.com/open-webui/open-webui
docker run -d –network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 –name open-webui –restart always ghcr.io/open-webui/open-webui:main
docker pull ghcr.io/open-webui/open-webui:maindocker volume create open-webui_datadocker run -d -p 3001:8080 --add-host=host.docker.internal:host-gateway -v open-webui_data:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:mainOLLAMA_BASE_URLURL del servidor:docker run -d -p 3001:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui_data:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3001:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui_data:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3001:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Fuente: 🛰️ MCP Support | Open WebUI Fuente: How to Connect a local MCP to Open WebUI + Ollama in 5 mins on MacBook Air M4!
Para configurar MCP en Open WebUI, sigue estos pasos:
1. Instala Docker Desktop y asegúrate de que esté funcionando antes de proceder con la instalación.
2. Descarga y compila la imagen Docker de MCP para desplegar mcpo, que expone servidores MCP como puntos finales HTTP compatibles con OpenAPI.
3. Personaliza la configuración del archivo ‘config.json’ según las especificaciones de tu servidor MCP.
4. Usa Docker Compose para iniciar los servidores con el comando ‘docker compose up -d’.
5. Conecta Open WebUI a los puntos finales expuestos, por ejemplo, ‘http://localhost:8000/memory’.
6. Revisa las herramientas disponibles dentro de Open WebUI para la interacción con los servidores MCP.
Estos pasos te permitirán desplegar y configurar MCP en Open WebUI de manera efectiva, facilitando la integración y gestión de modelos.
If you see mistakes or want to suggest changes, please create an issue on the source repository.
For attribution, please cite this work as
Sosa (2025, April 20). Blog de José R Sosa: Open-WebUI en Docker. Retrieved from https://josersosa.github.io/personalweb/posts/2026-02-01-open-webui-en-docker/
BibTeX citation
@misc{sosa2025open-webui,
author = {Sosa, José R},
title = {Blog de José R Sosa: Open-WebUI en Docker},
url = {https://josersosa.github.io/personalweb/posts/2026-02-01-open-webui-en-docker/},
year = {2025}
}