跳到主要内容

Open WebUI

Open WebUI 是一个可扩展的、功能丰富且用户友好的自托管 AI 平台,设计用于完全离线运行。 它支持各种 LLM 运行器,如 OllamaOpenAI 兼容的 API,并带有用于 RAG 的内置推理引擎,使其成为一个强大的 AI 部署解决方案

GitHub stars GitHub forks GitHub watchers GitHub repo size GitHub language count GitHub top language GitHub last commit Hits Discord

Open WebUI Demo

提示

正在寻找企业计划立即与我们的销售团队联系!

获取增强功能,包括自定义主题和品牌服务级别协议 (SLA) 支持长期支持 (LTS) 版本更多内容!

赞助商n8n
n8n
您的界面有后端了吗?试试 n8n

使用 Docker 快速入门 🐳

信息

Open WebUI 正常运行需要支持 WebSocket。请确保您的网络配置允许 WebSocket 连接。

如果 Ollama 在您的计算机上,使用此命令

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,使用此命令

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

将 Open WebUI 与 Ollama 打包

此安装方法使用一个将 Open WebUI 与 Ollama 打包的单个容器镜像,可以通过一个命令简化设置。根据您的硬件设置选择适当的命令

  • 支持 GPU:通过运行以下命令来利用 GPU 资源

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
  • 仅限 CPU:如果您未使用 GPU,请改用此命令

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

这两个命令都提供了 Open WebUI 和 Ollama 的内置、无忧安装,确保您可以快速启动和运行一切。

安装完成后,您可以在 http://localhost:3000 访问 Open WebUI。尽情使用吧!😄

使用 Dev 分支 🌙

警告

:dev 分支包含最新的不稳定功能和更改。使用风险自负,因为它可能存在错误或不完整的功能。

如果您想尝试最新的前沿功能并能接受偶尔的不稳定性,您可以使用 :dev 标签,如下所示

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

更新 Open WebUI

要轻松更新 Open WebUI 容器,请按照以下步骤操作

手动更新

使用 Watchtower 手动更新您的 Docker 容器

docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

自动更新

每隔 5 分钟自动更新您的容器

docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧 注意:如果您的容器名称不同,请将 open-webui 替换为您的容器名称。

手动安装

安装和运行 Open WebUI 有两种主要方式:使用 uv 运行时管理器或 Python 的 pip。虽然这两种方法都有效,但我们强烈推荐使用 uv,因为它简化了环境管理并最大程度地减少了潜在冲突。

uv 运行时管理器确保为 Open WebUI 等应用程序提供无缝的 Python 环境管理。请按照以下步骤开始

1. 安装 uv

为您的操作系统选择适当的安装命令

  • macOS/Linux:

    curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:

    powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 运行 Open WebUI

安装 uv 后,运行 Open WebUI 变得轻而易举。使用以下命令,确保设置 DATA_DIR 环境变量以避免数据丢失。为每个平台提供了示例路径

  • macOS/Linux:

    DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:

    $env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

使用 pip 安装

对于使用 Python 包管理器 pip 安装 Open WebUI 的用户,强烈建议使用 Python 运行时管理器,如 uvconda。这些工具可以有效地管理 Python 环境并避免冲突。

Python 3.11 是开发环境。Python 3.12 似乎可以工作,但尚未经过全面测试。Python 3.13 完全未经测试——使用风险自负

  1. 安装 Open WebUI:

    打开您的终端并运行以下命令

    pip install open-webui
  2. 启动 Open WebUI:

    安装后,使用以下命令启动服务器

    open-webui serve

更新 Open WebUI

要更新到最新版本,只需运行

pip install --upgrade open-webui

此方法安装所有必要的依赖项并启动 Open WebUI,从而实现简单高效的设置。安装完成后,您可以在 http://localhost:8080 访问 Open WebUI。尽情使用吧!😄

其他安装方法

我们提供各种安装替代方案,包括非 Docker 原生安装方法、Docker Compose、Kustomize 和 Helm。请访问我们的Open WebUI 文档或加入我们的Discord 社区以获取全面指导。

继续阅读完整的入门指南

赞助商 🙌

我们非常感谢赞助商的慷慨支持。他们的贡献帮助我们维护和改进项目,确保我们能够继续为社区提供高质量的工作。谢谢!