📄️ 🐋 使用 Llama.cpp 运行 DeepSeek R1 Dynamic 1.58-bit
特别鸣谢 UnslothAI 的卓越贡献!由于他们的辛勤工作,我们现在可以在 Llama.cpp 上运行完整的 DeepSeek-R1 671B 参数模型,采用动态 1.58 位量化形式(压缩后仅 131GB)!最棒的是什么?您不再需要为需要庞大的企业级 GPU 或服务器而绝望——完全可以在您的个人电脑上运行此模型(尽管对于大多数消费级硬件来说速度会较慢)。
📄️ 🖥️ 在 Intel GPU 上使用 IPEX-LLM 设置本地 LLM
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ ⚛️ 将 Continue.dev VSCode 扩展与 Open WebUI 集成
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🛃 使用自定义 CA 存储设置
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🌐 浏览器搜索引擎
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🕵🏻♀️ 使用 Helicone 监控您的 LLM 请求
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 💥 使用 Langfuse 进行监控和调试
Langfuse (GitHub) 为 Open WebUI 提供开源的可观察性和评估功能。通过启用 Langfuse 集成,您可以使用 Langfuse 跟踪您的应用程序数据,以开发、监控和改进 Open WebUI 的使用,其中包括:
📄️ 🔠 LibreTranslate 集成
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🔗 Redis Websocket 支持
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🛌 与 Amazon Bedrock 集成
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🔗 Okta OIDC SSO 集成
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。
📄️ 🦊 Firefox AI 聊天机器人侧边栏
本教程由社区贡献,并非 Open WebUI 团队官方支持。它仅作为如何根据您的特定用例自定义 Open WebUI 的演示。想做出贡献吗?请查看贡献教程。