⭐ 功能
Open WebUI 的主要功能 ⭐
-
🚀 轻松设置:使用 Docker、Kubernetes、Podman、Helm Charts(
kubectl
、kustomize
、podman
或helm
)无缝安装,提供无忧体验,并支持捆绑了 Ollama 的:ollama
镜像和支持 CUDA 的:cuda
镜像。 -
🛠️ 引导式初始设置:清晰地完成设置过程,包括首次设置时明确指示创建管理员账户。
-
🤝 OpenAI API 集成:轻松集成 OpenAI 兼容的 API,与 Ollama 模型一起实现多功能对话。OpenAI API URL 可以自定义,以便 Open WebUI 与各种第三方应用程序无缝集成。
-
🛡️ 细粒度权限和用户组:通过允许管理员在整个工作区创建详细的用户角色、用户组和权限,我们确保为所有用户提供安全的 用户环境。这种细粒度不仅增强了安全性,还允许定制用户体验,培养用户的归属感和责任感。
-
📱 响应式设计:在台式电脑、笔记本电脑和移动设备上享受无缝体验。
-
📱 移动端渐进式网络应用 (PWA):在您的移动设备上享受原生的渐进式网络应用体验,支持在
localhost
或个人域上离线访问,以及流畅的用户界面。为了让我们的 PWA 可以在您的设备上安装,它必须在安全上下文中交付。这通常意味着它必须通过 HTTPS 提供服务。信息- 要设置 PWA,您需要对 Linux、Docker 和反向代理(如
Nginx
、Caddy
或Traefik
)等技术有所了解。使用这些工具可以帮助您简化构建和部署适合您需求的 PWA 的过程。虽然没有“一键安装”选项可用,并且您通过 HTTPS 安全部署 Open WebUI 实例的可用选项需要用户经验,但使用这些资源可以更容易地创建和部署适合您需求的 PWA。
- 要设置 PWA,您需要对 Linux、Docker 和反向代理(如
-
✒️🔢 完整的 Markdown 和 LaTeX 支持:通过全面的 Markdown、LaTeX 和富文本功能提升您的 LLM 体验,实现更丰富的互动。
-
🧩 模型构建器:直接从 Open WebUI 轻松地从 Ollama 基础模型创建自定义模型。通过 Open WebUI 社区集成,轻松创建和添加自定义角色和代理,自定义模型元素,并导入模型。
-
📚 本地和远程 RAG 集成:通过我们聊天中尖端的检索增强生成 (RAG) 技术,深入探索未来的聊天交互并浏览您的文档。文档可以加载到工作区的
Documents
标签页中,之后可以通过在查询前使用井号键 [#
] 或以井号键 [#
] 开头,后跟一个 URL 进行网页内容集成来访问它们。 -
📄 文档提取:从各种文档格式(包括 PDF、Word 文档、Excel 表格、PowerPoint 演示文稿等)中提取文本和数据。我们先进的文档处理功能可与您的知识库无缝集成,从而在保留其结构和格式的同时,从复杂文档中准确检索和生成信息。
-
🔍 RAG 的网络搜索:您可以使用各种搜索提供商执行网络搜索,并将结果直接注入到您的本地检索增强生成 (RAG) 体验中。
-
🌐 网络浏览功能:通过使用
#
命令后跟 URL,将网站无缝集成到您的聊天体验中。此功能使网页内容可以直接融入您的对话,从而增强您交互的丰富性和深度。 -
🎨 图像生成集成:无缝整合图像生成功能,通过动态视觉内容丰富您的聊天体验。
-
⚙️ 并发模型利用:轻松同时与多个模型互动,利用它们独特的优势以获得最佳响应。并行利用多种模型模态以提升您的体验。
-
🔐 基于角色的访问控制 (RBAC):通过受限权限确保安全访问。只有授权人员才能访问您的 Ollama,而模型的创建和拉取权限则仅限于管理员。
-
🌐🌍 多语言支持:通过我们的国际化(
i18n
)支持,体验您偏好语言的 Open WebUI。我们邀请您加入我们,一起扩展支持的语言!我们正在积极寻找贡献者! -
🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。
还有更多卓越功能,包括……⚡️
🔧 管道支持
-
🔧 管道框架:通过我们的模块化插件框架,无缝集成和自定义您的 Open WebUI 体验,以增强自定义和功能 (https://github.com/open-webui/pipelines)。我们的框架允许轻松添加自定义逻辑和集成 Python 库,从 AI 代理到家庭自动化 API。
-
📥 上传管道:可以直接从
Admin Panel
>Settings
>Pipelines
菜单上传管道,简化管道管理过程。
我们的管道框架的可能性无限,几乎是无限的。从一些预建管道开始,帮助您入门!
-
🔗 函数调用:通过管道无缝集成函数调用,通过高级函数调用功能增强您的 LLM 交互。
-
📚 自定义 RAG:无缝集成自定义检索增强生成 (RAG) 管道,通过自定义 RAG 逻辑增强您的 LLM 交互。
-
📊 使用 Langfuse 进行消息监控:通过 Langfuse 管道,实时监控和分析消息交互中的使用统计数据。
-
⚖️ 用户速率限制:通过 速率限制 管道,有效管理 API 使用,控制发送到 LLM 的请求流,防止超出速率限制。
-
🌍 实时 LibreTranslate 翻译:使用 LibreTranslate 管道,将实时翻译集成到您的 LLM 交互中,实现跨语言通信。
- 请注意,此管道需要进一步设置 LibreTranslate 在 Docker 容器中才能工作。
-
🛡️ 有害消息过滤:我们的 Detoxify 管道会自动过滤有害消息,以维护一个清洁安全的聊天环境。
-
🔒 LLM-Guard:通过 LLM-Guard 管道确保安全的 LLM 交互,该管道具有提示注入扫描器,可检测并缓解针对大型语言模型的巧妙输入操纵。这可以保护您的 LLM 免受数据泄露,并增加一层抵御提示注入攻击的抵抗力。
-
🕒 对话回合限制:通过 对话回合限制 管道,通过设置对话回合限制来改进交互管理。
-
📈 OpenAI 生成统计:我们的 OpenAI 管道为 OpenAI 模型提供详细的生成统计数据。
-
🚀 多模型支持:我们与 不同提供商 的各种 AI 模型无缝集成,扩展了您的可能性,提供了多种语言模型可供选择和交互。
除了广泛的功能和自定义选项外,我们还提供一个可直接使用的示例管道库以及一个实用的示例脚手架管道来帮助您入门。这些资源将简化您的开发流程,使您能够使用管道和 Python 快速创建强大的 LLM 交互。祝您编码愉快!💡
🖥️ 用户体验
-
🖥️ 直观界面:聊天界面在设计时充分考虑了用户,借鉴了 ChatGPT 的用户界面。
-
⚡ 迅速响应:享受可靠快速和响应灵敏的性能。
-
🎨 启动画面:一个简单的加载启动画面,带来更流畅的用户体验。
-
🌐 个性化界面:在全新设计的搜索着陆页和经典聊天 UI 之间选择,可在“设置”>“界面”中进行设置,从而实现量身定制的体验。
-
📦 Pip 安装方法:Open WebUI 的安装可以通过命令
pip install open-webui
完成,这简化了过程,使新用户更容易上手。欲了解更多信息,请访问:https://pypi.ac.cn/project/open-webui/。 -
🌈 主题自定义:通过一系列选项个性化您的 Open WebUI 体验,包括各种简洁而时尚的主题、可自定义的聊天背景图像以及三种模式选项:浅色、深色或 OLED 暗色模式——或者让她为您选择!;)
-
🖼️ 自定义背景支持:从“设置”>“界面”设置自定义背景,个性化您的体验。
-
📝 带 Markdown 的富横幅:在横幅中支持 Markdown,创建视觉上引人入胜的公告,实现更丰富、更动态的内容。
-
💻 代码语法高亮:我们的语法高亮功能增强了代码可读性,提供了清晰简洁的代码视图。
-
🗨️ 用户消息中的 Markdown 渲染:用户消息现在以 Markdown 形式渲染,增强了可读性和互动性。
-
🎨 灵活的文本输入选项:在富文本输入和旧版文本区域输入之间切换,以适应用户偏好,并在高级格式化和简单文本输入之间提供选择。
-
👆 轻松的代码共享:通过方便的代码复制选项简化共享和协作过程,包括代码块中的浮动复制按钮和从代码段单击复制功能,节省时间并减少挫败感。
-
🎨 交互式工件:直接在界面中渲染网页内容和 SVG,支持快速迭代和实时更改,以增强创造力和生产力。
-
🖊️ 实时代码编辑:超强代码块允许直接在 LLM 响应中进行实时编辑,并支持工件的实时重新加载,从而简化编码和测试。
-
🔍 增强的 SVG 交互:SVG 图像(包括 Mermaid 图)的平移和缩放功能,可实现对复杂概念的更深入探索和理解。
-
🔍 文本选择快速操作:当 LLM 响应中突出显示文本时,会出现浮动按钮,提供“提问”或“解释”等更深层次的交互,从而提升整体用户体验。
-
↕️ 双向聊天支持:您可以轻松地在从左到右和从右到左的聊天方向之间切换,以适应各种语言偏好。
-
📱 移动辅助功能:通过简单的滑动操作,可以在移动设备上打开和关闭侧边栏。
-
🤳 支持设备的触觉反馈:Android 设备支持触觉反馈,在某些交互过程中提供沉浸式触觉体验。
-
🔍 用户设置搜索:快速搜索设置字段,提高易用性和导航。
-
📜 离线 Swagger 文档:离线访问开发人员友好的 Swagger API 文档,确保无论您身在何处都能完全访问。
-
💾 性能优化:大型依赖项的延迟加载最大限度地减少了初始内存使用,从而提高了性能并缩短了加载时间。
-
🚀 持久且可扩展的配置:Open WebUI 配置存储在数据库 (webui.db) 中,可实现无缝负载均衡、高可用性设置以及跨多个实例的持久设置,从而轻松访问和重用您的配置。
-
🔄 可移植的导入/导出:轻松导入和导出 Open WebUI 配置,简化跨多个系统复制设置的过程。
-
❓ 快速访问文档和快捷方式:主 UI 屏幕右下角的问号按钮(适用于台式电脑和笔记本电脑等大屏幕)为用户提供了轻松访问 Open WebUI 文档页面和可用键盘快捷方式的途径。
-
📜 更新日志和检查更新:用户可以在
Settings
>About
>See What's New
菜单中访问全面的更新日志并检查更新,该菜单提供了最新功能、改进和错误修复的快速概述,以及检查更新的能力。
💬 对话
-
💬 真正的异步聊天:享受不间断的多任务处理,支持真正的异步聊天,允许您创建聊天、导航离开,并随时返回,响应已准备就绪。
-
🔔 聊天完成通知:当非活动标签页中的聊天完成时,通过即时 UI 通知保持更新,确保您不会错过任何已完成的回复。
-
🌐 通知 Webhook 集成:即使您的标签页已关闭,也能通过可配置的 webhook 通知接收长时间运行的聊天或外部集成需求的及时更新。
-
📚 频道(测试版):探索用户和 AI 之间类似 Discord/Slack 的实时协作聊天室,为频道构建机器人,并解锁异步通信以实现主动多代理工作流。
-
🖊️ 频道打字指示器:通过频道中的实时打字指示器增强协作,让每个人都保持参与和了解情况。
-
👤 用户状态指示器:通过点击频道中用户的头像,快速查看其状态,提供更好的协调和可用性洞察。
-
💬 聊天控制:轻松调整每个聊天会话的参数,从而更精确地控制您的交互。
-
💖 收藏回复管理:直接从聊天概览中轻松标记和组织收藏回复,提高检索和访问偏好回复的便利性。
-
📌 置顶聊天:支持置顶聊天,让重要对话随时可访问。
-
🔍 RAG 嵌入支持:直接在
Admin Panel
>Settings
>Documents
菜单中更改检索增强生成 (RAG) 嵌入模型,从而增强文档处理。此功能支持 Ollama 和 OpenAI 模型。 -
📜 RAG 功能中的引文:检索增强生成 (RAG) 功能允许用户通过添加引文参考点来轻松跟踪馈送到 LLM 的文档上下文。
-
🌟 增强型 RAG 管道:我们 RAG 嵌入功能的可切换混合搜索子功能,通过
BM25
增强 RAG 功能,并由CrossEncoder
提供重新排名功能,以及可配置的相关性分数阈值。 -
📹 YouTube RAG 管道:用于通过视频 URL 总结 YouTube 视频的专用检索增强生成 (RAG) 管道,可直接与视频转录进行流畅交互。
-
📁 全面文档检索:在全面文档检索和传统片段之间切换,实现汇总等全面任务,并支持增强的文档功能。
-
🌟 RAG 引文相关性:通过在 RAG 结果中添加相关性百分比,轻松评估引文准确性。
-
🗂️ 高级 RAG:通过智能预处理聊天历史记录以在检索之前确定最佳查询来提高 RAG 准确性。
-
📚 RAG 的行内引用:受益于检索增强生成 (RAG) 响应的无缝行内引用,提高可追溯性并为新上传的文件提供源清晰度。
-
📁 大文本处理:选择性地将大量粘贴的文本转换为文件上传,直接与 RAG 一起使用,使聊天界面更整洁。
-
🔄 多模态支持:轻松与支持多模态交互的模型(例如 LLaVA)进行交互,包括图像。
-
🤖 多模型支持:在不同模型之间快速切换以进行多样化的聊天交互。
-
🔀 多模型聊天中合并回复:通过将多个模型的回复合并为一个连贯的回复来增强对话。
-
✅ 聊天中同一模型的多个实例:增强了多模型聊天,支持添加同一模型的多个实例。
-
💬 临时聊天功能:引入了临时聊天功能,废弃了旧的聊天历史设置,以增强用户交互的灵活性。
-
🖋️ 用户消息编辑:增强了用户聊天编辑功能,允许在不发送的情况下保存更改。
-
💬 高效对话编辑:使用 Cmd/Ctrl+Shift+Enter 快捷键快速直观地创建新的消息对,简化对话长度测试。
-
🖼️ 客户端图像压缩:通过客户端图像压缩节省带宽并提高性能,允许您在从“设置”>“界面”上传之前压缩图像。
-
👥 “@”模型集成:通过在对话过程中无缝切换到任何可访问的本地或外部模型,用户可以在一次聊天中利用多个模型的集体智能。这可以通过使用
@
命令在聊天中按名称指定模型来完成。 -
🏷️ 对话标记:使用我们高效的“tag:”查询系统,轻松分类和定位已标记的聊天,以便快速参考和简化数据收集,让您在不使界面混乱的情况下管理、搜索和组织对话。
-
🧠 自动标记:对话可以选择自动标记,以改善组织,反映自动生成标题的效率。
-
👶 聊天克隆:轻松克隆和保存任何聊天的快照,以供将来参考或继续。此功能让您轻松接续上次中断的地方或与他人分享您的会话。要创建聊天的副本,只需单击聊天下拉选项中的
Clone
按钮。您能跟上您的克隆吗? -
⭐ 可视化对话流:交互式消息图,改进了对话流的可视化,增强了对复杂讨论的理解和导航。
-
📁 聊天文件夹:将您的聊天组织到文件夹中,拖放以便轻松管理,并无缝导出以进行共享或分析。
-
📤 轻松导入聊天:只需将聊天导出文件 (JSON) 拖放到侧边栏即可将聊天导入到您的工作区。
-
📜 提示预设支持:在聊天输入中使用
/
命令即时访问自定义预设提示。轻松加载预定义对话启动器,加快您的交互。通过 Open WebUI 社区集成轻松导入提示或创建您自己的提示! -
📅 提示变量支持:提示变量,如
{{CLIPBOARD}}
、{{CURRENT_DATE}}
、{{CURRENT_DATETIME}}
、{{CURRENT_TIME}}
、{{CURRENT_TIMEZONE}}
、{{CURRENT_WEEKDAY}}
、{{USER_NAME}}
、{{USER_LANGUAGE}}
和{{USER_LOCATION}}
可用于系统提示或通过使用斜杠命令直接在聊天中选择提示。- 请注意,
{{USER_LOCATION}}
提示变量需要通过 HTTPS 的安全连接。要使用此特定提示变量,请确保在Settings
>Interface
菜单中打开{{USER_LOCATION}}
。 - 请注意,
{{CLIPBOARD}}
提示变量需要访问您设备的剪贴板。
- 请注意,
-
🧠 记忆功能:通过
Settings
>Personalization
>Memory
菜单手动添加您希望 LLM 记住的信息。记忆可以添加、编辑和删除。
💻 模型管理
-
🛠️ 模型构建器:所有模型都可以在模型编辑页面中通过持久的模型构建器模式进行构建和编辑。
-
📚 模型知识支持:能够直接从模型的编辑页面将工具、函数和知识集合附加到模型,从而增强每个模型可用的信息。
-
🗂️ 模型预设:为 Ollama 和 OpenAI API 创建和管理模型预设。
-
🏷️ 模型标记:模型工作区允许用户使用标记来组织他们的模型。
-
📋 模型选择器下拉排序:可以通过拖放将模型轻松组织到模型工作区中的所需位置,然后这些更改将反映在模型下拉菜单中。
-
🔍 模型选择器下拉菜单:通过模糊搜索和带有模型标签和模型描述的详细模型信息,轻松查找和选择您的模型。
-
⌨️ 方向键模型选择:使用方向键更快地选择模型,提高可访问性。
-
🔧 模型工作区中的快速操作:增强的 Shift 键快速操作,用于在模型工作区中隐藏/显示和删除模型。
-
😄 透明模型使用:得益于可见的状态显示,通过知识增强模型在查询期间随时了解系统的状态。
-
⚙️ 通过高级参数进行精细控制:通过调整
seed
、temperature
、frequency penalty
、context length
、seed
等模型参数,获得更深层次的控制。 -
🔄 无缝集成:直接从 Ollama 库的模型页面复制任何
ollama run {model:tag}
CLI 命令,并将其粘贴到模型下拉菜单中,以便轻松选择和拉取模型。 -
🗂️ 创建 Ollama Modelfile:要为 Ollama 创建模型文件,请导航到
Admin Panel
>Settings
>Models
>Create a model
菜单。 -
⬆️ GGUF 文件模型创建:通过从 Open WebUI 的
Admin Settings
>Settings
>Model
>Experimental
菜单直接上传 GGUF 文件,轻松创建 Ollama 模型。该过程已通过从您的机器上传或从 Hugging Face 下载 GGUF 文件的选项进行了简化。 -
⚙️ 默认模型设置:新聊天的默认模型偏好可以在移动设备的
Settings
>Interface
菜单中设置,或者在台式电脑和笔记本电脑上,在新聊天的模型选择器下拉菜单中更轻松地设置。 -
💡 LLM 响应洞察:可以查看每个生成的响应的详细信息,包括外部模型 API 洞察和全面的本地模型信息。
-
🕒 模型详情一览:直接在“模型”工作区中查看关键模型详情,包括模型哈希和上次修改时间戳,以增强跟踪和管理。
-
📥🗑️ 下载/删除模型:可以轻松地直接从 Open WebUI 下载或删除模型。
-
🔄 更新所有 Ollama 模型:一个方便的按钮允许用户一次性更新所有本地安装的模型,简化了模型管理。
-
🍻 TavernAI 角色卡集成:在我们的模型构建器中体验通过 TavernAI 角色卡集成增强的视觉叙事。用户可以无缝地将 TavernAI 角色卡 PNG 直接整合到他们的模型文件中,从而创造更身临其境、更引人入胜的用户体验。
-
🎲 模型游乐场 (Beta):在模型游乐场区域(
beta
)试用模型,这使用户可以在沙盒环境中轻松测试和探索模型功能和参数,然后再部署到实时聊天环境中。
👥 协作
-
🗨️ 本地聊天共享:以高效无缝的方式在用户之间生成和共享聊天链接,从而增强协作和沟通。
-
👍👎 RLHF 标注:通过点赞或点踩来增强消息的影响力,并提供 1-10 分的回复评分,然后选择提供文本反馈,从而促进创建用于从人类反馈中进行强化学习 (
RLHF
) 的数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。 -
🔧 全面反馈导出:将反馈历史数据导出为 JSON,以便与 RLHF 处理和进一步分析无缝集成,为改进提供有价值的见解。
-
🤝 社区共享:点击
Share to Open WebUI Community
按钮,与 Open WebUI 社区分享您的聊天会话。此功能允许您与其他用户互动并在平台上协作。- 要使用此功能,请登录您的 Open WebUI 社区账户。分享您的聊天有助于建立一个充满活力的社区,鼓励知识共享,并促进共同解决问题。请注意,聊天会话的社区共享是一个可选功能。只有管理员可以在
Admin Settings
>Settings
>General
菜单中开启或关闭此功能。
- 要使用此功能,请登录您的 Open WebUI 社区账户。分享您的聊天有助于建立一个充满活力的社区,鼓励知识共享,并促进共同解决问题。请注意,聊天会话的社区共享是一个可选功能。只有管理员可以在
-
🏆 社区排行榜:通过我们的排行榜系统,利用 ELO 评分系统,实时竞争和跟踪您的表现,并允许可选地共享反馈历史记录。
-
⚔️ 模型评估竞技场:直接从管理员设置进行模型的盲 A/B 测试,进行真正的并排比较,使其更容易找到最适合您需求的模型。
-
🎯 基于主题的排名:通过我们的实验性基于主题的重新排名系统,发现更准确的排名,该系统根据反馈中的标签相似性调整排行榜排名。
-
📂 统一协作工作区:在一个方便的位置访问和管理所有模型文件、提示、文档、工具和函数,同时还允许多个用户协作并贡献模型、知识、提示或工具,从而简化您的工作流程并增强团队合作。
📚 历史与存档
-
📜 聊天历史:通过聊天导航侧边栏轻松访问和管理您的对话历史。在
Settings
>Chats
菜单中关闭聊天历史,以防止在新交互中创建聊天历史。 -
🔄 再生历史访问:轻松回顾和探索您的整个 LLM 响应再生历史。
-
📬 存档聊天:轻松存储您与模型完成的对话,以备将来参考或交互,保持聊天界面整洁无杂乱。
-
🗃️ 存档所有聊天:此功能允许您一次性快速存档所有聊天。
-
📦 将所有存档聊天导出为 JSON:此功能使用户能够轻松地将所有存档聊天导出为单个 JSON 文件,可用于备份或传输目的。
-
📄 将聊天下载为 JSON/PDF/TXT:轻松将您的聊天单独下载为您喜欢的
.json
、.pdf
或.txt
格式。 -
📤📥 导入/导出聊天历史:通过
Import Chats
和Export Chats
选项,无缝地将您的聊天数据移入和移出平台。 -
🗑️ 删除所有聊天:此选项允许您永久删除所有聊天,确保全新的开始。
🎙️ 音频、语音与辅助功能
-
🗣️ 语音输入支持:通过语音交互与您的模型互动;享受直接与模型对话的便利。此外,探索在静默 3 秒后自动发送语音输入的选项,以获得流畅的体验。
- 麦克风访问需要手动通过 HTTPS 设置安全连接才能工作,或者自行承担风险手动将您的 URL 列入白名单。
-
😊 表情符号呼叫:从
Settings
>Interface
菜单中打开此功能,允许 LLM 在语音通话中使用表情符号表达情绪,以实现更动态的互动。- 此功能需要通过 HTTPS 的安全连接才能访问麦克风。
-
🎙️ 免提语音通话功能:无需动手即可发起语音通话,使交互更加无缝。
- 此功能需要通过 HTTPS 的安全连接才能使用麦克风。
-
📹 视频通话功能:启用与支持视觉模型的视频通话,如 LlaVA 和 GPT-4o,为您的通信添加视觉维度。
- 此功能需要通过 HTTPS 的安全连接才能访问摄像头和麦克风。
-
👆 轻触中断:在移动设备上,通过简单地轻触即可在语音对话中停止 AI 的语音,确保对交互的无缝控制。
-
🎙️ 语音中断:在移动设备上,通过您的声音在语音对话中停止 AI 的语音,确保对交互的无缝控制。
-
🔊 可配置的文本转语音端点:通过可配置的 OpenAI 兼容端点自定义您的文本转语音体验,用于朗读 LLM 响应。
-
🔗 直接呼叫模式访问:直接从 URL 激活呼叫模式,为移动设备用户提供便捷的快捷方式。
-
✨ 可自定义的文本转语音:控制消息内容如何分段以进行文本转语音 (TTS) 生成请求,从而实现灵活的语音输出选项。
-
🔊 Azure 语音服务集成:支持 Azure 语音服务进行文本转语音 (TTS),为用户提供更广泛的语音合成选项。
-
🎚️ 可自定义的音频播放:允许用户在呼叫模式设置中根据自己的喜好调整音频播放速度,从而增强可访问性和可用性。
-
🎵 广泛的音频兼容性:支持 RAG 的各种音频文件格式转录,包括“audio/x-m4a”,以拓宽平台内音频内容的兼容性。
-
🔊 音频压缩:实验性音频压缩允许绕过 OpenAI 语音转文本处理的 25MB 限制,扩展了基于音频交互的可能性。
-
🗣️ 实验性 SpeechT5 TTS:享受本地 SpeechT5 支持,以改进文本转语音功能。
🐍 代码执行
-
🚀 多功能、与 UI 无关、与 OpenAI 兼容的插件框架:无缝集成和自定义 Open WebUI 管道,以实现高效的数据处理和模型训练,确保极致的灵活性和可扩展性。
-
🛠️ 原生 Python 函数调用:通过原生函数调用,直接在 Open WebUI 中访问 Python 的强大功能。轻松集成自定义代码,以构建独特的功能,如自定义 RAG 管道、网络搜索工具,甚至通过内置代码编辑器进行类似代理的操作,从而在
Tools
和Functions
工作区中无缝开发和集成函数代码。 -
🐍 Python 代码执行:通过 Pyodide 在浏览器中本地执行 Python 代码,支持 Pyodide 支持的一系列库。
-
🌊 Mermaid 渲染:使用 Mermaid 图表工具直接在 Open WebUI 中创建视觉吸引力的图表和流程图,支持 Mermaid 语法渲染。
-
🔗 Iframe 支持:支持使用函数和工具直接在聊天界面中渲染 HTML。
🔒 集成与安全
-
✨ 多 OpenAI 兼容 API 支持:无缝集成和自定义各种 OpenAI 兼容 API,增强您的聊天交互的多功能性。
-
🔑 简化 API 密钥管理:轻松生成和管理密钥,以便利用 Open WebUI 和 OpenAI 库,简化集成和开发。
-
🌐 HTTP/S 代理支持:使用
http_proxy
或https_proxy
环境变量轻松配置网络设置。如果设置了这些变量,它们应分别包含 HTTP 和 HTTPS 代理的 URL。 -
🌐🔗 外部 Ollama 服务器连接:通过配置环境变量,无缝连接到托管在不同地址上的外部 Ollama 服务器。
-
🛢️ 灵活的数据库集成:使用环境变量无缝连接到自定义数据库,包括 SQLite、Postgres 和多个向量数据库(如 Milvus),以实现灵活和可扩展的数据管理。
-
🌐🗣️ 外部语音转文本支持:新增外部语音转文本(
STT
)服务,提供增强的灵活性,允许用户选择其首选提供商以实现无缝交互。 -
🌐 远程 ChromaDB 支持:通过连接到远程 ChromaDB 服务器来扩展数据库的功能。
-
🔀 多 Ollama 实例负载均衡:轻松将聊天请求分发到多个 Ollama 实例,以增强性能和可靠性。
-
🚀 高级负载均衡与可靠性:利用增强的负载均衡能力、支持 Redis 的无状态实例以及自动 WebSocket 重连,以提高 WebUI 的性能、可靠性和可扩展性,确保跨多个实例的无缝不间断交互。
-
☁️ 实验性 S3 支持:启用支持 S3 的无状态 WebUI 实例,以增强可扩展性和平衡繁重的工作负载。
-
🛠️ 用户组的 OAuth 管理:通过 OAuth 集成,通过组级别管理增强协作环境中的控制和可伸缩性。
👑 管理
-
👑 超级管理员分配:自动将第一个注册用户分配为超级管理员,其角色不可更改,其他人甚至其他管理员也无法修改。
-
🛡️ 细粒度用户权限:通过可自定义的基于角色的权限限制用户操作和访问,确保只有授权人员才能执行特定任务。
-
👥 多用户管理:直观的带分页管理面板,让您无缝管理多个用户,简化用户管理和用户生命周期管理。
-
🔧 管理面板:用户管理系统旨在简化用户的入门和管理,提供直接添加用户或通过 CSV 批量导入用户的选项。
-
👥 活跃用户指示器:监控活跃用户数量以及谁在使用哪些模型,以帮助评估用户数量过多时可能对性能造成的影响。
-
🔒 默认注册角色:将新注册的默认角色指定为
pending
、user
或admin
,为管理新用户的权限和访问级别提供灵活性。 -
🔒 阻止新用户注册:启用禁用新用户注册的选项,限制对平台的访问并保持固定数量的用户。
-
🔒 阻止聊天删除:管理员可以切换一个设置,阻止所有用户删除其聊天消息,确保所有聊天消息都保留用于审计或合规目的。
-
🔗 Webhook 集成:通过 Webhook 订阅新用户注册事件(兼容
Discord
、Google Chat
、Slack
和Microsoft Teams
),提供实时通知和自动化功能。 -
📣 可配置通知横幅:管理员可以在 config.json 中创建具有持久性的可自定义横幅,其中包含内容、背景颜色(
info
、warning
、error
或success
)和可关闭性选项。横幅仅供登录用户访问,确保敏感信息的机密性。 -
🛡️ 模型白名单:通过允许管理员为具有
user
角色的用户设置模型白名单来增强安全和访问控制,确保只有授权的模型可以被访问。 -
🔑 社区共享的管理员控制:管理员可以通过
Admin Panel
>Settings
菜单中的切换开关为所有用户启用或禁用社区共享。此切换开关允许管理员管理可访问性和隐私,确保安全环境。管理员可以选择为所有用户启用或禁用Share on Community
按钮,这允许他们控制社区参与和协作。 -
📧 可信电子邮件身份验证:可选地使用可信电子邮件标头进行身份验证,为保护您的 Open WebUI 实例添加额外的安全和身份验证层。
-
🔒 后端反向代理支持:通过 Open WebUI 后端与 Ollama 之间的直接通信来增强安全性。此关键功能消除了通过局域网 (LAN) 暴露 Ollama 的需求。从 Open WebUI 到
/ollama/api
路由的请求将从后端无缝重定向到 Ollama,从而增强了整体系统安全性并提供了额外的保护层。 -
🔒 身份验证:请注意,Open WebUI 本身不支持联合身份验证方案,如 SSO、OAuth、SAML 或 OIDC。但是,它可以配置为将身份验证委托给验证反向代理,从而有效地实现单点登录(
SSO
)体验。此设置允许您集中管理用户身份验证和管理,从而增强安全性和用户便利性。通过将 Open WebUI 与验证反向代理集成,您可以利用现有的身份验证系统并简化用户对 Open WebUI 的访问。有关配置此功能的更多信息,请参阅联合身份验证支持。 -
🔓 可选身份验证:通过将
WEBUI_AUTH
设置为False
,享受禁用身份验证的灵活性。这是没有现有用户的新安装的理想解决方案,或者可用于演示目的。 -
🚫 高级 API 安全性:根据自定义模型过滤器阻止 API 用户,增强 API 访问的安全性和控制。
-
❗ 管理员更新:确保管理员在登录时收到即时更新通知,使他们随时了解最新更改和系统状态。
-
👥 用户组管理:创建和管理用户组,实现无缝组织和控制。
-
🔐 基于组的访问控制:根据用户组设置对模型、知识、提示和工具的细粒度访问,从而实现更受控和更安全的环境。
-
🛠️ 细粒度用户权限:轻松管理工作区权限,包括文件上传、删除、编辑和临时聊天,以及模型、知识、提示和工具的创建。
-
🔑 LDAP 身份验证:通过 LDAP 支持增强用户管理的安全性和可伸缩性。
-
🌐 可自定义的 OpenAI 连接:通过自定义 OpenAI 设置(包括前缀 ID 支持和显式模型 ID 支持 API)享受流畅的操作。
-
🔐 Ollama API 密钥管理:管理 Ollama 凭据,包括前缀 ID 支持,以实现安全高效的操作。
-
🔄 连接管理:根据需要轻松启用或禁用单个 OpenAI 和 Ollama 连接。
-
🎨 直观的模型工作区:通过重新设计且用户友好的界面管理跨用户和组的模型。
-
🔑 API 密钥身份验证:通过轻松启用或禁用 API 密钥身份验证来加强安全性。
-
🔄 统一模型重置:通过管理员设置中的一键选项重置并删除所有模型。
-
🔓 灵活的模型访问控制:在不需要时,使用“BYPASS_MODEL_ACCESS_CONTROL”环境变量,轻松绕过用户角色的模型访问控制,简化受信任环境中的工作流程。
-
🔒 可配置的 API 密钥身份验证限制:灵活配置 API 密钥身份验证的端点限制,现在默认为关闭,以便在受信任的环境中更流畅地进行设置。