跳到主要内容

🕸️ 网络图

在此,我们提供清晰且结构化的图表,帮助你理解不同设置中各种网络组件如何交互。本文档旨在帮助 macOS/Windows 和 Linux 用户。每种场景都使用 Mermaid 图表进行说明,展示了根据不同的系统配置和部署策略如何设置交互。

Mac OS/Windows 设置选项 🖥️

Ollama 在主机上,Open WebUI 在容器中

在此场景中,Ollama 直接在主机上运行,而 Open WebUI 在 Docker 容器中运行。

Ollama 和 Open WebUI 在 Compose Stack 中

OllamaOpen WebUI 都配置在同一个 Docker Compose stack 中,简化了网络通信。

Ollama 和 Open WebUI,独立网络

在此,OllamaOpen WebUI 部署在独立的 Docker 网络中,这可能导致连接问题。

Open WebUI 在 Host Network 中

在此配置中,Open WebUI 使用主机网络,这影响了它在某些环境中的连接能力。

Linux 设置选项 🐧

Ollama 在主机上,Open WebUI 在容器中 (Linux)

此图专用于 Linux 平台,其中 Ollama 在主机上运行,Open WebUI 部署在 Docker 容器内部。

Ollama 和 Open WebUI 在 Compose Stack 中 (Linux)

在此设置中,OllamaOpen WebUI 都位于同一个 Docker Compose stack 中,在 Linux 上实现了直接的网络连接。

Ollama 和 Open WebUI,独立网络 (Linux)

在此场景中,OllamaOpen WebUI 在 Linux 环境下位于不同的 Docker 网络中,这可能会阻碍连接。

Open WebUI 在 Host Network 中,Ollama 在主机上 (Linux)

在此最佳布局中,Open WebUIOllama 都使用主机网络,从而在 Linux 系统上实现无缝交互。

每种设置都针对不同的部署策略和网络配置,以帮助你选择最适合需求的布局。