跳到主要内容

⭐ 功能

赞助商Open WebUI
Open WebUI
顶部横幅位置预留给 Emerald+ 企业赞助商

Open WebUI 的主要功能 ⭐

  • 🚀 轻松设置:使用 Docker, Kubernetes, Podman, Helm Charts (kubectl, kustomize, podman, 或 helm) 无缝安装,体验无忧,同时支持捆绑 Ollama 的 :ollama 镜像和支持 CUDA 的 :cuda 镜像。

  • 🛠️ 引导式初始设置:清晰地完成设置过程,包括在首次设置时明确提示创建管理员账户。

  • 🤝 OpenAI API 集成:轻松集成与 OpenAI 兼容的 API,以便与 Ollama 模型一起进行多样化对话。OpenAI API URL 可以定制,以便将 Open WebUI 与各种第三方应用程序无缝集成。

  • 🛡️ 精细权限和用户组:通过允许管理员在工作区内创建详细的用户角色、用户组和权限,我们确保了所有相关用户的安全用户环境。这种精细化不仅增强了安全性,还允许定制用户体验,培养用户的归属感和责任感。

  • 📱 响应式设计:在台式电脑、笔记本电脑和移动设备上享受无缝体验。

  • 📱 移动端渐进式 Web 应用 (PWA):在您的移动设备上享受原生的渐进式 Web 应用体验,可在 localhost 或个人域名上离线访问,并拥有流畅的用户界面。为了使我们的 PWA 能够安装在您的设备上,它必须在安全上下文中交付。这通常意味着它必须通过 HTTPS 提供服务。

    信息
    • 要设置 PWA,您需要对 Linux、Docker 和反向代理(如 NginxCaddyTraefik)等技术有所了解。使用这些工具可以帮助简化构建和部署适合您需求的 PWA 的过程。虽然没有“一键安装”选项可用,并且通过 HTTPS 安全部署 Open WebUI 实例的选项需要用户经验,但使用这些资源可以更容易地创建和部署适合您需求的 PWA。
  • ✒️🔢 完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown、LaTeX 和富文本功能提升您的 LLM 体验,实现更丰富的交互。

  • 🧩 模型构建器:直接从 Open WebUI 轻松地基于基础 Ollama 模型创建自定义模型。创建和添加自定义角色和代理,定制模型元素,并通过 Open WebUI 社区 集成轻松导入模型。

  • 📚 本地和远程 RAG 集成:通过我们尖端的检索增强生成 (RAG) 技术,深入了解聊天交互的未来,并在您的聊天中探索您的文档。文档可以加载到工作区的 文档 标签页中,然后可以通过在查询前使用井号键 [#] 或通过以井号键 [#] 开头提示,后跟网页内容集成的 URL 来访问它们。

  • 📄 文档提取:从各种文档格式中提取文本和数据,包括 PDF、Word 文档、Excel 电子表格、PowerPoint 演示文稿等。我们先进的文档处理能力可实现与您的知识库的无缝集成,从而在保留复杂文档结构和格式的同时,准确检索和生成信息。

  • 🔍 RAG 的网页搜索:您可以使用各种搜索提供商进行网页搜索,并将结果直接注入到您的本地检索增强生成 (RAG) 体验中。

  • 🌐 网页浏览能力:通过使用 # 命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能可将网页内容直接整合到您的对话中,从而增强交互的丰富性和深度。

  • 🎨 图像生成集成:无缝集成图像生成功能,通过动态视觉内容丰富您的聊天体验。

  • ⚙️ 并发模型利用:轻松地同时与多个模型进行交互,利用它们的独特优势获得最佳响应。并行利用多样化的模型模态以增强您的体验。

  • 🔐 基于角色的访问控制 (RBAC):通过限制权限确保安全访问。只有经过授权的个人才能访问您的 Ollama,而模型创建和拉取权限则专属于管理员。

  • 🌐🌍 多语言支持:通过我们的国际化 (i18n) 支持,以您的首选语言体验 Open WebUI。我们邀请您加入我们,扩展我们支持的语言!我们正在积极寻找贡献者!

  • 🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。

还有更多值得关注的功能,包括... ⚡️


🔧 流水线支持

  • 🔧 流水线框架:使用我们的模块化插件框架无缝集成和定制您的 Open WebUI 体验,以增强定制和功能(https://github.com/open-webui/pipelines)。我们的框架允许轻松添加自定义逻辑和集成 Python 库,从 AI 代理到家庭自动化 API。

  • 📥 上传流水线:可以直接从 管理员面板 > 设置 > 流水线 菜单上传流水线,简化流水线管理过程。

我们的流水线框架的可能性无限,几乎是无限的。从一些预构建的流水线开始,帮助您入门!

  • 🔗 函数调用:通过流水线无缝集成函数调用,以高级函数调用能力增强您的 LLM 交互。

  • 📚 自定义 RAG:无缝集成自定义检索增强生成 (RAG) 流水线,以自定义 RAG 逻辑增强您的 LLM 交互。

  • 📊 使用 Langfuse 监控消息:通过Langfuse 流水线监控和分析实时使用统计中的消息交互。

  • ⚖️ 用户速率限制:通过控制发送到 LLM 的请求流量,使用速率限制 流水线高效管理 API 使用,防止超出速率限制。

  • 🌍 实时 LibreTranslate 翻译:使用LibreTranslate 流水线将实时翻译集成到您的 LLM 交互中,实现跨语言交流。

    • 请注意,此流水线需要在 Docker 容器中进一步设置 LibreTranslate 才能工作。
  • 🛡️ 有害信息过滤:我们的Detoxify 流水线会自动过滤有害信息,以维护干净安全的聊天环境。

  • 🔒 LLM-Guard:使用LLM-Guard 流水线确保安全的 LLM 交互,该流水线包含一个 Prompt Injection Scanner,用于检测和缓解针对大型语言模型的巧妙输入操纵。这可以保护您的 LLM 免受数据泄露,并增加一层对 Prompt Injection 攻击的抵抗。

  • 🕒 对话轮次限制:使用对话轮次限制 流水线设置对话轮次限制,改进交互管理。

  • 📈 OpenAI 生成统计:我们的OpenAI 流水线提供 OpenAI 模型的详细生成统计。

  • 🚀 多模型支持:我们与来自不同提供商的各种 AI 模型无缝集成,扩展了您的可能性,提供了广泛的语言模型供您选择和交互。

除了丰富的功能和定制选项外,我们还提供了可直接使用的示例流水线库以及实用的示例脚手架流水线,帮助您快速入门。这些资源将简化您的开发过程,并使您能够使用流水线和 Python 快速创建强大的 LLM 交互。编码愉快!💡


🖥️ 用户体验

  • 🖥️ 直观界面:聊天界面在设计时考虑了用户体验,借鉴了 ChatGPT 的用户界面。

  • 快速响应:享受稳定快速且响应迅速的性能。

  • 🎨 启动画面:一个简单的加载启动画面,带来更流畅的用户体验。

  • 🌐 个性化界面:在“设置”>“界面”中选择全新设计的搜索着陆页或经典聊天 UI,实现定制化体验。

  • 📦 Pip 安装方法:Open WebUI 可以通过命令 pip install open-webui 进行安装,这简化了过程,使其更易于新用户使用。更多信息请访问:https://pypi.ac.cn/project/open-webui/

  • 🌈 主题定制:通过多种选项个性化您的 Open WebUI 体验,包括各种简洁而时尚的主题、可定制的聊天背景图像,以及三种模式选项:浅色、深色或 OLED 深色模式 - 或者让 为您选择!;)

  • 🖼️ 自定义背景支持:从“设置”>“界面”设置自定义背景以个性化您的体验。

  • 📝 支持 Markdown 的富横幅:在横幅中使用 markdown 支持创建视觉上引人入胜的公告,从而实现更丰富、更动态的内容。

  • 💻 代码语法高亮:我们的语法高亮功能增强了代码可读性,提供了清晰简洁的代码视图。

  • 🗨️ 用户消息中的 Markdown 渲染:用户消息现在以 Markdown 格式渲染,增强了可读性和交互性。

  • 🎨 灵活的文本输入选项:在富文本输入和传统文本区域输入之间切换,满足用户偏好,并在高级格式化和更简单的文本输入之间提供选择。

  • 👆 轻松代码分享:通过便捷的代码复制选项简化分享和协作过程,包括代码块中的浮动复制按钮和代码跨度的点击复制功能,节省时间并减少困扰。

  • 🎨 交互式制品:直接在界面中渲染网页内容和 SVG,支持快速迭代和实时更改,以增强创造力和生产力。

  • 🖊️ 实时代码编辑:增强的代码块允许直接在 LLM 响应中进行实时编辑,制品支持实时重载,简化了编码和测试过程。

  • 🔍 增强的 SVG 交互:SVG 图像(包括 Mermaid 图表)的平移和缩放功能,可以更深入地探索和理解复杂概念。

  • 🔍 文本选择快捷操作:在 LLM 响应中突出显示文本时,会出现浮动按钮,提供更深入的交互,例如“提问”或“解释”,从而增强整体用户体验。

  • ↕️ 双向聊天支持:您可以轻松切换左到右和右到左的聊天方向,以适应各种语言偏好。

  • 📱 移动端可访问性:在移动设备上可以通过简单的滑动操作打开和关闭侧边栏。

  • 🤳 支持设备上的触觉反馈:Android 设备支持触觉反馈,可在特定交互中提供沉浸式触感体验。

  • 🔍 用户设置搜索:快速搜索设置字段,提高易用性和导航效率。

  • 📜 离线 Swagger 文档:离线访问开发者友好的 Swagger API 文档,确保您无论身在何处都能完全访问。

  • 💾 性能优化:大型依赖项的延迟加载最大限度地减少了初始内存使用,提高了性能并缩短了加载时间。

  • 🚀 持久且可扩展的配置:Open WebUI 配置存储在数据库 (webui.db) 中,实现了无缝负载均衡、高可用性设置以及跨多个实例的持久设置,使您可以轻松访问和重用配置。

  • 🔄 便携式导入/导出:轻松导入和导出 Open WebUI 配置,简化在多个系统之间复制设置的过程。

  • 快速访问文档和快捷方式:主 UI 屏幕右下角的问号按钮(在台式电脑和笔记本电脑等较大屏幕上可用)为用户提供了方便快捷地访问 Open WebUI 文档页面和可用键盘快捷方式的途径。

  • 📜 更新日志和检查更新:用户可以在 设置 > 关于 > 查看最新内容 菜单中访问完整的更新日志并检查更新,该菜单提供了最新功能、改进和错误修复的快速概览,以及检查更新的功能。


💬 对话

  • 💬 真正的异步聊天:享受不间断的多任务处理与真正的异步聊天支持,您可以创建聊天,导航离开,并随时返回查看已准备好的回复。

  • 🔔 聊天完成通知:当非活动标签页中的聊天完成时,通过即时 UI 内通知保持更新,确保您不会错过任何已完成的回复。

  • 🌐 通知 Webhook 集成:通过可配置的 Webhook 通知,即使在标签页关闭时,也能接收长时间运行的聊天或外部集成需求的及时更新。

  • 📚 频道(Beta):通过 Discord/Slack 风格的聊天室探索用户和 AI 之间的实时协作,为频道构建机器人,并解锁异步通信,以实现主动的多代理工作流程。

  • 🖊️ 频道中的输入指示器:通过频道中的实时输入指示器增强协作,让每个人都参与并知情。

  • 👤 用户状态指示器:通过点击频道中用户的个人资料图片,快速查看用户状态,提供更好的协调和可用性洞察。

  • 💬 聊天控制:轻松调整每个聊天会话的参数,对您的互动提供更精确的控制。

  • 💖 收藏回复管理:直接从聊天概览轻松标记和组织收藏的回复,提高检索和访问首选回复的便捷性。

  • 📌 置顶聊天:支持置顶聊天,让您可以轻松访问重要对话。

  • 🔍 RAG 嵌入支持:直接在 管理员面板 > 设置 > 文档 菜单中更改检索增强生成 (RAG) 嵌入模型,增强文档处理。此功能支持 Ollama 和 OpenAI 模型。

  • 📜 RAG 功能中的引用:检索增强生成 (RAG) 功能允许用户轻松跟踪输入到 LLM 的文档上下文,并添加了引用作为参考点。

  • 🌟 增强型 RAG 流水线:我们 RAG 嵌入功能的一个可切换的混合搜索子功能,通过 BM25 增强 RAG 功能,由 CrossEncoder 提供重排序支持,并可配置相关性分数阈值。

  • 📹 YouTube RAG 流水线:用于通过视频 URL 总结 YouTube 视频的专用检索增强生成 (RAG) 流水线,可直接与视频转录稿进行顺畅交互。

  • 📁 全面文档检索:在全文检索和传统片段之间切换,实现诸如摘要等综合任务,并支持增强的文档功能。

  • 🌟 RAG 引用相关性:通过在 RAG 结果中添加相关性百分比,轻松评估引用的准确性。

  • 🗂️ 高级 RAG:通过智能预处理聊天历史以确定检索前的最佳查询,提高 RAG 准确性。

  • 📚 RAG 的内联引用:从检索增强生成 (RAG) 回复中获得无缝内联引用的好处,提高了可追溯性,并为新上传的文件提供了清晰的来源。

  • 📁 大文本处理:可以选择将粘贴的大段文本转换为文件上传,以便直接与 RAG 一起使用,使聊天界面更整洁。

  • 🔄 多模态支持:轻松与支持多模态交互的模型(包括图像,例如 LLaVA)进行交互。

  • 🤖 多模型支持:快速切换不同模型进行多样化的聊天交互。

  • 🔀 多模型聊天中的合并回复:通过将多个模型的回复合并成一个连贯的回复来增强对话。

  • 聊天中支持同一模型的多个实例:增强了多模型聊天,支持添加同一模型的多个实例。

  • 💬 临时聊天功能:引入了临时聊天功能,弃用了旧的聊天历史设置,增强了用户交互灵活性。

  • 🖋️ 用户消息编辑:增强了用户聊天编辑功能,允许在不发送的情况下保存更改。

  • 💬 高效对话编辑:使用 Cmd/Ctrl+Shift+Enter 快捷方式快速直观地创建新的消息对,简化对话长度测试。

  • 🖼️ 客户端图像压缩:通过客户端图像压缩节省带宽并提高性能,允许您在从“设置”>“界面”上传图像之前对其进行压缩。

  • 👥 '@' 模型集成:通过在对话中无缝切换到任何可访问的本地或外部模型,用户可以在一个聊天中利用多个模型的集体智能。这可以通过在聊天中使用 @ 命令按名称指定模型来完成。

  • 🏷️ 对话标记:使用我们高效的“tag:”查询系统,轻松地对标记的聊天进行分类和查找,以便快速参考和简化数据收集,从而管理、搜索和组织您的对话,而不会使界面混乱。

  • 🧠 自动标记:可以选择对对话进行自动标记以改进组织,这与自动生成标题的效率相似。

  • 👶 聊天克隆:轻松克隆和保存任何聊天的快照,以供将来参考或继续。此功能使您可以轻松地从上次离开的地方继续或与他人分享您的会话。要创建聊天的副本,只需单击聊天下拉选项中的 克隆 按钮即可。您能跟上您的克隆吗?

  • 可视化对话流程:交互式消息图,用于改进对话流程的可視化,增强对复杂讨论的理解和导航。

  • 📁 聊天文件夹:将您的聊天组织到文件夹中,通过拖放轻松管理,并无缝导出以进行分享或分析。

  • 📤 轻松导入聊天:只需将聊天导出文件 (JSON) 拖放到侧边栏即可将聊天导入到您的工作区。

  • 📜 提示预设支持:在聊天输入中使用 / 命令即时访问自定义预设提示。轻松加载预定义的对话启动语并加速您的交互。通过 Open WebUI 社区 集成轻松导入提示或创建您自己的提示!

  • 📅 提示变量支持:可以在系统提示或通过斜杠命令在聊天中直接选择提示来使用提示变量,例如 {{CLIPBOARD}}{{CURRENT_DATE}}{{CURRENT_DATETIME}}{{CURRENT_TIME}}{{CURRENT_TIMEZONE}}{{CURRENT_WEEKDAY}}{{USER_NAME}}{{USER_LANGUAGE}}{{USER_LOCATION}}

    • 请注意,{{USER_LOCATION}} 提示变量需要通过 HTTPS 建立安全连接。要使用此特定的提示变量,请确保在 设置 > 界面 菜单中打开 {{USER_LOCATION}}
    • 请注意,{{CLIPBOARD}} 提示变量需要访问您设备的剪贴板。
  • 🧠 记忆功能:通过 设置 > 个性化 > 记忆 菜单手动添加您希望 LLM 记住的信息。记忆可以添加、编辑和删除。


💻 模型管理

  • 🛠️ 模型构建器:所有模型都可以在模型编辑页面中通过持久模型构建器模式构建和编辑。

  • 📚 模型的知识支持:能够直接从模型的编辑页面将工具、函数和知识集合附加到模型,从而增强每个模型可用的信息。

  • 🗂️ 模型预设:为 Ollama 和 OpenAI API 创建和管理模型预设。

  • 🏷️ 模型标记:模型工作区允许用户使用标记组织他们的模型。

  • 📋 模型选择器下拉菜单排序:可以通过在模型工作区中拖放模型到所需位置,轻松组织模型,这将在模型下拉菜单中反映这些更改。

  • 🔍 模型选择器下拉菜单:使用模糊搜索和带有模型标签和模型描述的详细模型信息,轻松查找和选择您的模型。

  • ⌨️ 箭头键选择模型:使用箭头键可以更快地选择模型,提高可访问性。

  • 🔧 模型工作区中的快捷操作:增强的 Shift 键快捷操作,用于在模型工作区中隐藏/显示和删除模型。

  • 😄 透明的模型使用情况:通过可见的状态显示,在使用知识增强模型进行查询时,了解系统的状态。

  • ⚙️ 通过高级参数进行微调控制:通过调整模型参数,例如 seedtemperaturefrequency penaltycontext lengthseed 等,获得更深层次的控制。

  • 🔄 无缝集成:直接从Ollama 库的模型页面复制任何 ollama run {model:tag} CLI 命令,并将其粘贴到模型下拉菜单中,以便轻松选择和拉取模型。

  • 🗂️ 创建 Ollama Modelfile:要为 Ollama 创建模型文件,请导航至 管理员面板 > 设置 > 模型 > 创建模型 菜单。

  • ⬆️ GGUF 文件模型创建:通过从 Open WebUI 的 管理员设置 > 设置 > 模型 > 实验 菜单直接上传 GGUF 文件,轻松创建 Ollama 模型。该过程已经简化,您可以选择从您的机器上传或从 Hugging Face 下载 GGUF 文件。

  • ⚙️ 默认模型设置:可以在移动设备的 设置 > 界面 菜单中设置新聊天的默认模型偏好,或者更方便地在台式电脑和笔记本电脑的新聊天中模型选择器下拉菜单下进行设置。

  • 💡 LLM 回复洞察:可以查看每个生成回复的详细信息,包括外部模型 API 洞察和全面的本地模型信息。

  • 🕒 模型详情一览:直接在模型工作区中查看关键模型详情,包括模型哈希和上次修改时间戳,以增强跟踪和管理。

  • 📥🗑️ 下载/删除模型:可以直接从 Open WebUI 轻松下载或删除模型。

  • 🔄 更新所有 Ollama 模型:一个方便的按钮允许用户一键更新其本地安装的所有模型,简化模型管理。

  • 🍻 TavernAI 角色卡集成:在我们的模型构建器中体验与 TavernAI 角色卡集成的增强视觉叙事。用户可以将 TavernAI 角色卡 PNG 文件无缝集成到他们的模型文件中,从而创建更具沉浸感和吸引力的用户体验。

  • 🎲 模型实验场 (Beta):在模型实验场区域 (beta) 尝试模型,用户可以在沙盒环境中轻松测试和探索模型功能和参数,然后再部署到实时聊天环境中。


👥 协作

  • 🗨️ 本地聊天分享:高效无缝地生成并分享用户之间的聊天链接,从而增强协作和沟通。

  • 👍👎 RLHF 标注:通过点赞或点踩以及提供 1-10 分的回复评分,然后选择提供文本反馈,增强消息的影响力,促进创建用于人类反馈强化学习 (RLHF) 的数据集。利用您的消息训练或微调模型,同时确保本地保存的数据的机密性。

  • 🔧 全面反馈导出:将反馈历史数据导出为 JSON,以便与 RLHF 处理和进一步分析无缝集成,为改进提供宝贵见解。

  • 🤝 社区分享:通过点击 分享到 Open WebUI 社区 按钮,将您的聊天会话分享到 Open WebUI 社区。此功能允许您与其他用户互动并在平台上协作。

    • 要使用此功能,请登录您的 Open WebUI 社区账户。分享您的聊天内容有助于营造一个充满活力的社区,鼓励知识共享,并促进共同解决问题。请注意,社区分享聊天会话是可选功能。只有管理员可以在 管理员设置 > 设置 > 通用 菜单中打开或关闭此功能。
  • 🏆 社区排行榜:使用我们的排行榜系统实时竞争并跟踪您的表现,该系统采用 ELO 评分系统,并允许可选地分享反馈历史。

  • ⚔️ 模型评估竞技场:直接从管理员设置进行模型的盲测 A/B 测试,进行真正的并排比较,更容易找到最适合您需求的模型。

  • 🎯 基于主题的排名:通过我们的实验性基于主题的重排序系统发现更准确的排名,该系统根据反馈中的标签相似度调整排行榜排名。

  • 📂 统一协作工作区:在一个方便的位置访问和管理您的所有模型文件、提示、文档、工具和函数,同时还支持多个用户协作并为模型、知识、提示或工具做贡献,从而简化您的工作流程并增强团队协作。


📚 历史与存档

  • 📜 聊天记录:通过聊天导航侧边栏轻松访问和管理您的对话历史。在 设置 > 聊天 菜单中关闭聊天记录,以防止在新交互中创建聊天记录。

  • 🔄 重新生成历史访问:轻松重访和探索您的整个 LLM 回复重新生成历史。

  • 📬 存档聊天:轻松存储已完成的模型对话,以便将来参考或交互,保持聊天界面整洁无杂乱。

  • 🗃️ 存档所有聊天:此功能允许您快速一次性存档所有聊天。

  • 📦 将所有已存档聊天导出为 JSON:此功能使用户能够轻松地将所有已存档聊天导出到单个 JSON 文件中,可用于备份或传输。

  • 📄 将聊天下载为 JSON/PDF/TXT:轻松将您的聊天单独下载为您偏好的 .json.pdf.txt 格式。

  • 📤📥 导入/导出聊天记录:通过 导入聊天导出聊天 选项无缝地将您的聊天数据移入和移出平台。

  • 🗑️ 删除所有聊天:此选项允许您永久删除所有聊天,确保重新开始。


🎙️ 音频、语音和辅助功能

  • 🗣️ 语音输入支持:通过语音交互与您的模型互动;享受直接与模型对话的便利。此外,探索在静默 3 秒后自动发送语音输入的选项,以获得更流畅的体验。

  • 😊 表情符号通话:在 设置 > 界面 菜单中开启此功能,允许 LLM 在语音通话期间使用表情符号表达情感,从而实现更动态的交互。

    • 此功能需要通过 HTTPS 建立安全连接才能使用麦克风。
  • 🎙️ 免提语音通话功能:无需用手即可发起语音通话,使交互更加流畅。

    • 此功能需要通过 HTTPS 建立安全连接才能使用麦克风。
  • 📹 视频通话功能:使用支持视觉的模型(如 LLaVA 和 GPT-4o)启用视频通话,为您的通信添加视觉维度。

    • 此功能需要通过 HTTPS 建立安全连接才能同时使用相机和麦克风。
  • 👆 点击中断:在移动设备上通过简单的点击停止 AI 在语音对话中的讲话,确保对交互的无缝控制。

  • 🎙️ 语音中断:在移动设备上通过您的声音停止 AI 在语音对话中的讲话,确保对交互的无缝控制。

  • 🔊 可配置的文本转语音端点:使用可配置的与 OpenAI 兼容的端点,定制您的文本转语音体验,用于朗读 LLM 回复。

  • 🔗 直接通话模式访问:直接从 URL 激活通话模式,为移动设备用户提供便捷的快捷方式。

  • 可定制的文本转语音:控制消息内容如何分段用于文本转语音 (TTS) 生成请求,允许灵活的语音输出选项。

  • 🔊 Azure 语音服务集成:支持 Azure 语音服务进行文本转语音 (TTS),为用户提供更广泛的语音合成选项。

  • 🎚️ 可定制的音频播放:允许用户在通话模式设置中调整音频播放速度,增强可访问性和可用性。

  • 🎵 广泛的音频兼容性:享受对 RAG 支持的广泛音频文件格式转录的支持,包括 'audio/x-m4a',以拓宽平台内音频内容的兼容性。

  • 🔊 音频压缩:实验性音频压缩允许绕过 OpenAI 语音转文本处理的 25MB 限制,扩展了基于音频交互的可能性。

  • 🗣️ 实验性 SpeechT5 TTS:享受本地 SpeechT5 支持,改进文本转语音能力。


🐍 代码执行

  • 🚀 通用、与 UI 无关、与 OpenAI 兼容的插件框架:无缝集成和定制Open WebUI 流水线,以实现高效的数据处理和模型训练,确保最终的灵活性和可扩展性。

  • 🛠️ 原生 Python 函数调用:通过原生函数调用直接在 Open WebUI 中访问 Python 的强大功能。通过内置的代码编辑器轻松集成自定义代码,构建独特功能,如自定义 RAG 流水线、网页搜索工具,甚至代理式操作,以在 工具函数 工作区内无缝开发和集成函数代码。

  • 🐍 Python 代码执行:通过 Pyodide 在浏览器本地执行 Python 代码,支持 Pyodide 支持的一系列库。

  • 🌊 Mermaid 渲染:使用Mermaid 图表和制图工具直接在 Open WebUI 中创建具有视觉吸引力的图表和流程图,该工具支持 Mermaid 语法渲染。

  • 🔗 Iframe 支持:可以使用函数和工具直接在聊天界面中渲染 HTML。


🔒 集成与安全

  • 多 OpenAI 兼容 API 支持:无缝集成和定制各种与 OpenAI 兼容的 API,增强您的聊天交互的多功能性。

  • 🔑 简化的 API 密钥管理:轻松生成和管理密钥,以便将 Open WebUI 与 OpenAI 库结合使用,简化集成和开发。

  • 🌐 HTTP/S 代理支持:使用 http_proxyhttps_proxy 环境变量轻松配置网络设置。如果设置了这些变量,它们应分别包含 HTTP 和 HTTPS 代理的 URL。

  • 🌐🔗 外部 Ollama 服务器连接:通过配置环境变量,无缝连接到托管在不同地址的外部 Ollama 服务器。

  • 🛢️ 灵活的数据库集成:使用环境变量无缝连接到自定义数据库,包括 SQLite、Postgres 和多个向量数据库(如 Milvus),以实现灵活可扩展的数据管理。

  • 🌐🗣️ 外部语音转文本支持:增加了外部语音转文本(STT)服务,提供了增强的灵活性,允许用户选择他们首选的提供商进行无缝交互。

  • 🌐 远程 ChromaDB 支持:通过连接到远程 ChromaDB 服务器扩展数据库的功能。

  • 🔀 多个 Ollama 实例负载均衡:毫不费力地将聊天请求分配到多个 Ollama 实例,以提高性能和可靠性。

  • 🚀 高级负载均衡和可靠性:利用增强的负载均衡能力、支持 Redis 的无状态实例以及自动 WebSocket 重连功能,提升 WebUI 的性能、可靠性和可扩展性,确保跨多个实例的无缝不间断交互。

  • ☁️ 实验性 S3 支持:为无状态 WebUI 实例启用 S3 支持,以增强可扩展性和平衡重负载。

  • 🛠️ 用户组的 OAuth 管理:通过 OAuth 集成实现组级别管理,增强协作环境中的控制和可扩展性。


👑 管理

  • 👑 超级管理员分配:自动将第一个注册用户分配为超级管理员,其角色不可更改,任何人都无法修改,包括其他管理员。

  • 🛡️ 精细用户权限:通过可定制的基于角色的权限限制用户操作和访问,确保只有授权个人才能执行特定任务。

  • 👥 多用户管理:直观的带分页的管理员面板,让您可以无缝管理多个用户,简化用户管理并简化用户生命周期管理。

  • 🔧 管理员面板:用户管理系统旨在简化用户的入职和管理,提供直接添加用户或通过 CSV 批量导入用户的选项。

  • 👥 活跃用户指示器:监控活跃用户数量以及谁正在使用哪些模型,以帮助评估何时可能因用户数量过多而影响性能。

  • 🔒 默认注册角色:为新注册用户指定默认角色为 pending(待处理)、user(用户)或 admin(管理员),为管理新用户的权限和访问级别提供灵活性。

  • 🔒 阻止新用户注册:启用禁用新用户注册的选项,限制对平台的访问并维持固定的用户数量。

  • 🔒 阻止聊天删除:管理员可以切换一项设置,阻止所有用户删除其聊天消息,确保保留所有聊天消息用于审计或合规目的。

  • 🔗 Webhook 集成:通过 webhook 订阅新用户注册事件(兼容 DiscordGoogle ChatSlackMicrosoft Teams),提供实时通知和自动化功能。

  • 📣 可配置通知横幅:管理员可以在 config.json 中创建可定制的持久横幅,具有内容、背景颜色(信息警告错误成功)和可关闭性选项。横幅仅对登录用户可见,确保敏感信息的机密性。

  • 🛡️ 模型白名单:通过允许管理员为具有 user 角色的用户设置模型白名单,增强安全性和访问控制,确保只有授权模型可以访问。

  • 🔑 管理员控制社区分享:管理员可以在 管理员面板 > 设置 菜单中通过切换按钮为所有用户启用或禁用社区分享。此切换按钮允许管理员管理可访问性和隐私,确保安全环境。管理员可以选择为所有用户启用或禁用 分享到社区 按钮,从而控制社区参与和协作。

  • 📧 可信电子邮件认证:可以选择使用可信电子邮件标头进行认证,为保护您的 Open WebUI 实例增加一层额外的安全和认证。

  • 🔒 后端反向代理支持:通过 Open WebUI 后端与 Ollama 之间的直接通信增强安全性。此关键功能无需在本地网络 (LAN) 上暴露 Ollama。从 Open WebUI 发送到 /ollama/api 路由的请求会从后端无缝重定向到 Ollama,从而增强整体系统安全性并提供额外的保护层。

  • 🔒 认证:请注意,Open WebUI 不原生支持联合认证方案,例如 SSO、OAuth、SAML 或 OIDC。但是,可以将其配置为将认证委托给认证反向代理,从而有效地实现单点登录(SSO)体验。此设置允许您集中管理用户认证,增强安全性和用户便利性。通过将 Open WebUI 与认证反向代理集成,您可以利用现有的认证系统并简化用户对 Open WebUI 的访问。有关配置此功能的更多信息,请参阅联合认证支持

  • 🔓 可选认证:通过将 WEBUI_AUTH 设置为 False,您可以灵活地禁用认证。这对于没有现有用户的新安装来说是一个理想的解决方案,也可用于演示目的。

  • 🚫 高级 API 安全:根据定制的模型过滤器阻止 API 用户,增强对 API 访问的安全和控制。

  • 管理员更新:确保管理员在登录时立即收到更新通知,让他们及时了解最新的更改和系统状态。

  • 👥 用户组管理:创建和管理用户组,实现无缝组织和控制。

  • 🔐 基于组的访问控制:根据用户组设置对模型、知识、提示和工具的精细访问权限,从而实现更受控和更安全的环境。

  • 🛠️ 精细用户权限:轻松管理工作区权限,包括文件上传、删除、编辑和临时聊天,以及模型、知识、提示和工具的创建。

  • 🔑 LDAP 认证:通过支持 LDAP 进行用户管理,增强安全性和可扩展性。

  • 🌐 可定制的 OpenAI 连接:通过自定义 OpenAI 设置,包括前缀 ID 支持和 API 的显式模型 ID 支持,享受流畅操作。

  • 🔐 Ollama API 密钥管理:管理 Ollama 凭据,包括前缀 ID 支持,以实现安全高效的操作。

  • 🔄 连接管理:根据需要轻松启用或禁用单独的 OpenAI 和 Ollama 连接。

  • 🎨 直观的模型工作区:通过重新设计且用户友好的界面管理跨用户和组的模型。

  • 🔑 API 密钥认证:通过轻松启用或禁用 API 密钥认证来加强安全性。

  • 🔄 统一模型重置:通过一键选项从管理员设置中重置和移除所有模型。

  • 🔓 灵活的模型访问控制:在不需要时,可以使用 'BYPASS_MODEL_ACCESS_CONTROL' 环境变量轻松绕过用户角色的模型访问控制,简化可信环境中的工作流程。

  • 🔒 可配置的 API 密钥认证限制:灵活配置 API 密钥认证的端点限制,在可信环境中为了更流畅的设置,此选项现在默认关闭。