跳到主要内容
警告

本教程由社区贡献,不受 Open WebUI 团队支持。它仅作为如何根据您的特定用例定制 Open WebUI 的演示。想做出贡献?请查阅贡献教程。

Helicone 与 Open WebUI 集成

Helicone 是一个开源的 LLM 可观测性平台,供开发者监控、调试和改进生产就绪的应用程序,包括您的 Open WebUI 部署。

通过启用 Helicone,您可以记录 LLM 请求,评估和实验提示,并获得即时洞察,帮助您自信地将更改推送到生产环境。

  • 跨模型类型的实时监控与统一视图:通过单一界面监控本地 Ollama 模型和云 API
  • 请求可视化和回放:准确查看在 Open WebUI 中发送给每个模型的提示以及 LLM 生成的输出,以便进行评估
  • 本地 LLM 性能跟踪:衡量自托管模型的响应时间和吞吐量
  • 按模型的使用分析:比较 Open WebUI 设置中不同模型的使用模式
  • 用户分析:了解交互模式
  • 调试功能:排查模型响应问题
  • 成本跟踪:跟踪跨提供商的 LLM 使用成本

如何将 Helicone 与 OpenWebUI

步骤 1:创建 Helicone 账户并生成 API 密钥

创建一个 Helicone 账户 并登录,在此处生成 API 密钥

— 确保生成一个仅写入的 API 密钥。这确保您只允许将数据记录到 Helicone,而不能读取您的私人数据。

步骤 2:创建 OpenAI 账户并生成 API 密钥

创建一个 OpenAI 账户并登录 OpenAI 开发者门户 以生成 API 密钥。

步骤 3:使用 Helicone 的基础 URL 运行 Open WebUI 应用

要启动您的第一个 Open WebUI 应用,请使用 Open WebUI 文档中的命令,并包含 Helicone 的 API 基础 URL,以便您可以自动查询和监控。

   # Set your environment variables
export HELICONE_API_KEY=<YOUR_API_KEY>
export OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>

# Run Open WebUI with Helicone integration
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
-e OPENAI_API_KEY="$OPENAI_API_KEY" \
--name open-webui \
ghcr.io/open-webui/open-webui

如果您已经部署了 Open WebUI 应用,请前往 Admin Panel > Settings > Connections,然后点击“管理 OpenAI API 连接”旁边的 + 号。更新以下属性:

  • 您的 API 基础 URL 将是 https://oai.helicone.ai/v1/<YOUR_HELICONE_API_KEY>
  • API KEY 将是您的 OpenAI API 密钥。

Open WebUI Helicone Setup

步骤 4:确保监控正在工作

为确保您的集成正常工作,请登录 Helicone 的控制面板并查看“请求”选项卡。

您应该会看到通过 Open WebUI 界面发出的请求已经记录在 Helicone 中。

Example Helicone Trace

了解更多

关于 Helicone 的详细指南,您可以在此处查阅 Helicone 的文档。