Roji
Published on 2024-07-29 / 38 Visits
0
0

给大模型用WebUI直接web访问

打开WebUI管道

管道:多功能、与UI无关的OpenAI兼容插件框架

Open WebUI是一个可扩展、功能丰富且用户友好的自托管WebUI,旨在完全离线运行。它支持各种LLM运行器,包括Ollama和OpenAI兼容的API。

GitHub明星

关于用户角色和隐私的重要说明:

  • 管理员创建:在Open WebUI上创建的第一个帐户获得管理员权限,控制用户管理和系统设置。

  • 用户注册:后续注册以“待处理”状态开始,需要管理员批准才能访问。

  • 隐私和数据安全:您的所有数据,包括登录详细信息,都存储在您的设备上。Open WebUI确保严格的保密性,并且没有外部请求来增强隐私和安全性。

使用Docker快速入门🐳(推荐)

提示

禁用单个用户的登录

如果您想禁用单用户设置的登录,请将WEBUI_AUTH设置为False。这将绕过登录页面。

警告

更改后,您无法在单用户模式和多帐户模式之间切换。

危险

使用Docker安装Open WebUI时,请确保在Docker命令中包含-v open-webui:/app/backend/data。此步骤至关重要,因为它可以确保您的数据库正确安装,并防止任何数据丢失。

Docker中的数据存储

使用默认配置进行安装

  • 如果Ollama在您的计算机上,请使用以下命令:

    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  • 如果Ollama在不同的服务器上,请使用此命令:

    要在其他服务器上连接到Ollama,请将OLLAMA_BASE_URL更改为服务器的URL:

    docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
    • 要在Nvidia GPU支持下运行Open WebUI,请使用以下命令:

    docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
    

仅用于OpenAI API的安装

  • 如果您只使用OpenAI API,请使用以下命令:

    docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    

安装带有捆绑Ollama支持的Open WebUI

此安装方法使用单个容器映像,该映像将Open WebUI与Ollama捆绑在一起,允许通过单个命令进行简化设置。根据您的硬件设置选择合适的命令:

  • 支持GPU:通过运行以下命令来利用GPU资源:

    docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    
  • 仅适用于CPU:如果您没有使用GPU,请使用以下命令:

    docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
    

这两个命令都促进了Open WebUI和Ollama的内置、无忧的安装,确保您可以快速启动和运行所有内容。

安装后,您可以在http://localhost:3000上访问Open WebUI。尽情享受!😄

使用开发分支🌙

警告

:dev分支包含最新的不稳定功能和更改。使用时风险自负,因为它可能有错误或不完整的功能。

如果您想尝试最新的前沿功能,并且不介意偶尔的不稳定,您可以使用如下的:dev标签:

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:dev

手动安装

使用pip(Beta版)进行安装

对于喜欢使用Python的软件包管理器pip的用户,Open WebUI提供了一种安装方法。此方法需要Python 3.11。

  1. 安装Open WebUI:打开终端并运行以下命令:

    pip install open-webui
    
  2. 启动Open WebUI:安装后,使用以下操作启动服务器:

    open-webui serve
    

此方法安装所有必要的依赖项并启动Open WebUI,允许简单高效的设置。安装后,您可以在http://localhost:8080上访问Open WebUI。尽情享受!😄

其他安装方法

我们提供各种安装替代方案,包括非Docker原生安装方法、Docker Compose、Kustomize和Helm。访问我们的Open WebUI文档或加入我们的Discord社区以获得全面指导。

故障排除

如果您遇到“Open WebUI:服务器连接错误”等各种问题,请参阅TROUBLESHOOTING,以获取有关如何排除故障和/或加入我们的Open WebUI Discord社区的信息。

更新

查看我们的完整更新指南

如果您想将本地Docker安装更新到最新版本,您可以使用Watchtower

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

在命令的最后一部分,如果容器名称不同,请将open-webui替换为容器名称。


Comment