🕸️ 网络图
在此,我们提供清晰且结构化的图表,以帮助您理解不同设置中网络各组件如何交互。本文档旨在帮助 macOS/Windows 和 Linux 用户。每个场景都使用 Mermaid 图表进行说明,以展示根据不同的系统配置和部署策略如何设置交互。
macOS/Windows 设置选项 🖥️
Ollama 部署在宿主机,Open WebUI 部署在容器中
在此场景中,Ollama
直接在宿主机上运行,而 Open WebUI
在 Docker 容器中运行。
Ollama 和 Open WebUI 都在 Compose 堆栈中
Ollama
和 Open WebUI
都配置在同一个 Docker Compose 堆栈中,从而简化了网络通信。
Ollama 和 Open WebUI,分离网络
在此,Ollama
和 Open WebUI
部署在独立的 Docker 网络中,这可能导致连接问题。
Open WebUI 在宿主机网络中
在此配置中,Open WebUI
使用宿主机网络,这会影响其在某些环境中的连接能力。
Linux 设置选项 🐧
Ollama 部署在宿主机,Open WebUI 部署在容器中 (Linux)
此图专门针对 Linux 平台,其中 Ollama
在宿主机上运行,而 Open WebUI
部署在 Docker 容器内。
Ollama 和 Open WebUI 都在 Compose 堆栈中 (Linux)
此设置中,Ollama
和 Open WebUI
都位于同一个 Docker Compose 堆栈中,从而在 Linux 上实现直接的网络连接。
Ollama 和 Open WebUI,分离网络 (Linux)
此场景中,Ollama
和 Open WebUI
在 Linux 环境下位于不同的 Docker 网络中,这可能会阻碍连接。
Open WebUI 在宿主机网络中,Ollama 部署在宿主机 (Linux)
一种理想的布局,其中 Open WebUI
和 Ollama
都使用宿主机网络,从而在 Linux 系统上实现无缝交互。
每种设置都针对不同的部署策略和网络配置,以帮助您根据需求选择最佳布局。