open webui 介绍 是一个可扩展、功能丰富且用户友好的本

2025-04-15  本文已影响0人  老马啸西风2020

AI MCP 系列

AgentGPT-01-入门介绍

Browser-use 是连接你的AI代理与浏览器的最简单方式

AI MCP(大模型上下文)-01-入门介绍

AI MCP(大模型上下文)-02-awesome-mcp-servers 精选的 MCP 服务器

AI MCP(大模型上下文)-03-open webui 介绍 是一个可扩展、功能丰富且用户友好的本地部署 AI 平台,支持完全离线运行。

AI MCP(大模型上下文)-04-n8n 为技术团队打造的安全工作流自动化平台

AI MCP(大模型上下文)-05-anything-llm AnythingLLM 您一直在寻找的全方位AI应用程序

AI MCP(大模型上下文)-06-maxkb 强大易用的企业级 AI 助手

AI MCP(大模型上下文)-07-dify 入门介绍

AI MCP(大模型上下文)-08-分享一些好用的 Dify DSL 工作流程

AI MCP(大模型上下文)-09-基于Dify自主创建的AI应用DSL工作流

AI MCP(大模型上下文)-10-Activepieces 一个开源的 Zapier 替代方案

AI MCP(大模型上下文)-11-微软 Playwright MCP server

AI MCP(大模型上下文)-12-AWS MCP

AI MCP(大模型上下文)-13-github MCP

Open WebUI 中文文档 👋

Open WebUI 是一个可扩展、功能丰富且用户友好的本地部署 AI 平台,支持完全离线运行。

支持多种 LLM 后端(如 Ollama 和 OpenAI 兼容 API),内置 RAG 推理引擎,是强大的 AI 部署解决方案。

💡 企业版需求? 立即联系我们销售团队,获取 定制主题与品牌服务等级协议 (SLA)长期支持版本 (LTS) 等更多增强功能!

更多信息请访问:Open WebUI 官方文档


🌟 核心功能

更多功能请访问:功能总览


🚀 安装指南

使用 Python pip 安装

  1. 安装:
pip install open-webui
  1. 运行:
open-webui serve

访问地址:http://localhost:8080

使用 Docker 快速启动

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

访问地址:http://localhost:3000


其他安装方式

支持非 Docker 部署、Docker Compose、Kustomize、Helm 等。请访问:安装文档


🛠️ 故障排查

常见连接失败多为容器内无法访问 Ollama 服务。建议加上 --network=host 解决。

示例:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

使用 Watchtower 自动更新

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

🌙 Dev 分支说明

:dev 标签包含最新实验功能,可能存在不稳定或未完成特性。

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev

离线模式

设置环境变量防止联网下载模型:

export HF_HUB_OFFLINE=1

👥 社区与支持

上一篇 下一篇

猜你喜欢

热点阅读