🌟 OpenAPI 工具服务器
本仓库提供了参考性的 OpenAPI 工具服务器实现,让开发者能够轻松、安全地将外部工具和数据源集成到 LLM 代理和工作流程中。这些实现旨在实现最大程度的易用性和最小的学习曲线,并采用广泛采纳且久经考验的 OpenAPI 规范 作为标准协议。
通过利用 OpenAPI,我们消除了对专有或不熟悉通信协议的需求,确保您可以快速、自信地构建或集成服务器。这意味着您可以减少花在研究自定义接口上的时间,将更多时间用于构建增强您 AI 应用程序的强大工具。
☝️ 为什么选择 OpenAPI?
-
既定标准:OpenAPI 是一个广泛使用、经生产环境验证的 API 标准,由数千个工具、公司和社区提供支持。
-
无需重复造轮子:无需额外文档或专有规范的困扰。如果您今天构建 REST API 或使用 OpenAPI,您就已经准备就绪。
-
易于集成与托管:在外部或本地部署您的工具服务器,避免供应商锁定或复杂的配置。
-
强大的安全重点:OpenAPI 围绕 HTTP/REST API 构建,固有地支持广泛使用、安全的通信方法,包括 HTTPS 和久经考验的认证标准(OAuth、JWT、API 密钥)。
-
面向未来且稳定:与不成熟或实验性协议不同,OpenAPI 承诺可靠性、稳定性和长期的社区支持。
🚀 快速开始
通过 servers/
目录中提供的基于 FastAPI 的参考实现快速入门。(您可以根据需要将这些示例改编为您偏好的技术栈,例如使用 FastAPI、FastOpenAPI 或任何其他 OpenAPI 兼容库)
git clone https://github.com/open-webui/openapi-servers
cd openapi-servers
使用 Bash
# Example: Installing dependencies for a specific server 'filesystem'
cd servers/filesystem
pip install -r requirements.txt
uvicorn main:app --host 0.0.0.0 --reload
文件系统服务器可通过以下地址访问: https://:8000
文档路径为: https://:8000
使用 Docker
如果您安装了 docker compose,可以通过以下命令启动服务器:
docker compose up
服务将可通过以下地址访问:
现在,只需将您的 OpenAPI 兼容客户端或 AI 代理指向您的本地或公开部署的 URL 即可——无需配置烦恼,无需复杂的传输。
🌱 Open WebUI 社区
- 如需进行一般讨论、技术交流和公告,请访问我们的社区讨论页面。
- 有想法或反馈?请提出一个问题(issue)!