🗨️ Kokoro-FastAPI 使用 Docker
警告
本教程由社区贡献,不获得 Open WebUI 团队的支持。它仅作为演示,说明如何根据您的特定用例定制 Open WebUI。想要贡献?请查看贡献教程。
什么是 Kokoro-FastAPI
?
Kokoro-FastAPI 是一个 Docker 化的 FastAPI 封装,用于 Kokoro-82M 文本转语音模型,实现了 OpenAI API 端点规范。它提供高性能的文本转语音功能,具有令人印象深刻的生成速度。
主要功能
- 兼容 OpenAI 的语音端点,支持内联语音组合
- NVIDIA GPU 加速或 CPU Onnx 推理
- 流式传输支持,支持可变分块
- 支持多种音频格式(
.mp3
,.wav
,.opus
,.flac
,.aac
,.pcm
) - 在 localhost:8880/web 上集成网页界面(或仓库中用于 Gradio 的附加容器)
- 用于转换和生成的音素端点
语音
- af
- af_bella
- af_irulan
- af_nicole
- af_sarah
- af_sky
- am_adam
- am_michael
- am_gurney
- bf_emma
- bf_isabella
- bm_george
- bm_lewis
语言
- en_us
- en_uk
要求
- 系统上已安装 Docker
- Open WebUI 正在运行
- 对于 GPU 支持:具备 CUDA 12.3 的 NVIDIA GPU
- 对于纯 CPU:无特殊要求
⚡️ 快速开始
您可以选择 GPU 或 CPU 版本
GPU 版本(需要具备 CUDA 12.8 的 NVIDIA GPU)
使用 docker run
docker run --gpus all -p 8880:8880 ghcr.io/remsky/kokoro-fastapi-gpu
或 docker compose,通过创建 docker-compose.yml
文件并运行 docker compose up
。例如
name: kokoro
services:
kokoro-fastapi-gpu:
ports:
- 8880:8880
image: ghcr.io/remsky/kokoro-fastapi-gpu:v0.2.1
restart: always
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities:
- gpu
信息
您可能需要安装和配置 NVIDIA 容器工具包
CPU 版本(ONNX 优化推理)
使用 docker run
docker run -p 8880:8880 ghcr.io/remsky/kokoro-fastapi-cpu
使用 docker compose
name: kokoro
services:
kokoro-fastapi-cpu:
ports:
- 8880:8880
image: ghcr.io/remsky/kokoro-fastapi-cpu
restart: always
设置 Open WebUI 以使用 Kokoro-FastAPI
要将 Kokoro-FastAPI 与 Open WebUI 结合使用,请遵循以下步骤
- 打开管理面板并导航至
Settings
->Audio
- 将您的 TTS 设置配置如下
-
- 文本转语音引擎:OpenAI
- API 基础 URL:
https://:8880/v1
# 您可能需要使用host.docker.internal
而不是localhost
- API 密钥:
not-needed
- TTS 模型:
kokoro
- TTS 语音:
af_bella
# 也接受现有 OAI 语音的映射以实现兼容性
信息
默认 API 密钥为字符串 not-needed
。如果您不需要额外的安全性,则无需更改此值。
构建 Docker 容器
git clone https://github.com/remsky/Kokoro-FastAPI.git
cd Kokoro-FastAPI
cd docker/cpu # or docker/gpu
docker compose up --build
就是这样!
有关构建 Docker 容器的更多信息,包括更改端口,请参考 Kokoro-FastAPI 仓库