Linux(Ubuntu)安装 open-webui 最新方式汇总
# 一、安装python3.11
这里需要注意,不要用 python3.11
以上的版本,否则会不兼容!!!
1、到python官网下载python3.11
链接:https://www.python.org/ftp/python/3.11.9/python-3.11.9-amd64.exe (opens new window)
2.双击安装包,开始安装,注意勾选[Add python 3.11 to Path]
选项!!!
3.选择Customize install
选项,建议把安装路径改为其他盘(注意!安装路径中不能有中文!!!)
# 二、测试python
1、按下win+r打开运行框,输入cmd,回车
2、在命令提示符中输入 python
3、如果正确安装,将会显示:Python 3.11.9
3、输入exit()
退出python
4、输入 pip list
,如果安装正确,将会显示安装包内容。
# 三、pip换源
在cmd中输入:
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
# 四、安装open-webui
1、打开cmd,输入:
pip install open-webui
此时,我们会看到不断有新的包被安装
2、等待过程结束后,输入:
open-webui serve
不出意外的话,就要出意外了:ERROR: can not connect to "http://hf-huggingface.co" is your computer offline?
# 五、解决can not connet问题
1、出现以上问题是因为国内访问国外网站信号不好
2、解决方案:
打开cmd,输入:
pip install open-webui==0.2.0
3、安装完成后,打开cmd输入:
open-webui serve
# 六、升级open-webui
打开cmd,输入:
pip install open-webui --upgrade
# 七、运行ollama+open-webui
1、打开cmd,输入:
ollama serve
2、打开另一个cmd,输入:
open-webui serve
# 八、docker安装open-webui
1.如果您的计算机上安装了Ollama,可以使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
2.如果Ollama在另一台服务器上,请使用以下命令: 连接到另一台服务器上的Ollama时,请将OLLAMA_BASE_URL更改为服务器的URL:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要使用Nvidia GPU支持运行Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
3.带有捆绑Ollama支持的Open WebUI安装 此安装方法使用一个单独的容器映像,将Open WebUI与Ollama捆绑在一起,通过单个命令实现简化设置。根据您的硬件设置选择适当的命令:
使用GPU支持:通过运行以下命令利用GPU资源
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
- 01
- linux 安装 ollama 基本步骤11-27
- 03
- Ubuntu 上安装 【docker】 的详细指南11-27