Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南
随着人工智能技术的快速发展,本地部署大模型已经成为许多开发者追求的目标。在 Ubuntu 系统中,结合 Windows 子系统 for Linux(WSL)可以无缝集成 Linux 操作系统,从而方便地安装和使用基于 Linux 的开源 AI 工具链。本文将详细指导如何在 Ubuntu WSL 中安装 Ollama 和 OpenWebUI,并完成对大模型的本地化部署。
背景知识
WSL 简介
Windows 子系统 for Linux(WSL)是微软为 Windows 用户量身定制的工具包,允许用户在 Windows 系统中运行基于 Linux 的操作系统。通过 WSL,开发者可以使用熟悉或需要的 Linux 工具链进行开发和部署。
Ollama
Ollama 是 Meta 推出的一个开源大语言模型推理框架,支持本地化部署。它可以通过 WebUI(Web User Interface)界面提供交互体验,并且能够集成到各种应用中使用。
OpenWebUI
OpenWebUI 是一个基于 HTML、CSS 和 JavaScript 的开源 Ollama 实例服务(OAS)前端,提供了友好的用户界面,方便用户进行模型推理的配置和操作。
安装准备
在 Ubuntu 中运行 WSL 前,请确保以下环境配置已准备好:
- 操作系统:安装 Ubuntu 22.04 LTS 或更高版本。
- 必要硬件支持:确保电脑配备适当的 GPU(推荐使用 RTX 系列)和足够的内存(通常至少 8GB),以支持大模型的推理性能。
Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置
安装 Ubuntu WSL
如果尚未安装 WSL,请按照以下步骤进行:
- 打开终端。
- 运行命令
wsl install
加载默认软件包。 - 确保添加了 WSL 包,并在控制台中运行以确认安装。
- 安装 Ollama
要安装 Ollama,请运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh
如果发现网络问题下载不下来:
wget https://ollama.com/install.sh #下载到当前目录
chmod +x install.sh #给予执行权要
./install.sh #运行脚本程序
如果上述方法都无法解决问题,可以尝试手动下载安装脚本:
- 打开浏览器,访问https://ollama.com/install.sh,将页面内容复制到本地文件
install.sh
中。 保存文件后,使用终端进入文件所在目录,运行以下命令:
bash复制chmod +x install.sh ./install.sh
通过这些方法,你应该能够解决下载速度慢的问题,顺利安装Ollama。
手动安装
注意
如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama
下载并解压缩包,不用脚本下载和安装方法:
#命令下载
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
#直接到ollama的github网站下载压缩包
sudo tar -C /usr -xzf ollama-linux-amd64.tgz #运行解压安装命令
启动 Ollama:
ollama serve
在另一个终端中,验证 Ollama 是否正在运行:
ollama -v
AMD GPU 安装
如果您有 AMD GPU,还要下载并解压缩其他 ROCm 软件包:
curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz
ARM64 安装
下载并解压缩特定于 ARM64 的包:
curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz
将 Ollama 添加为启动服务(推荐)
为 Ollama 创建用户和组:
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
在 中创建服务文件 :/etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
[Install]
WantedBy=default.target
然后启动服务:
sudo systemctl daemon-reload
sudo systemctl enable ollama
卸载
删除 ollama 服务:
sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service
从 bin 目录中删除 ollama 二进制文件(、 、 或 ):/usr/local/bin/usr/bin
`/bin`
sudo rm $(which ollama)
删除下载的模型以及 Ollama 服务用户和组:
sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
- 安装 OpenWebUI
- 通过 Python pip 🐍 安装
Open WebUI 可以使用 Python 包安装程序 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11 以避免兼容性问题。
安装 Open WebUI: 打开终端并运行以下命令以安装 Open WebUI:
pip install open-webui
运行 Open WebUI: 安装后,您可以通过执行以下命令来启动 Open WebUI:
open-webui serve
这将启动 Open WebUI 服务器,您可以在 http://localhost:8080
- 通过Docker 🐳 快速安装
注意
请注意,对于某些 Docker 环境,可能需要其他配置。如果您遇到任何连接问题,我们关于 Open WebUI 文档的详细指南已准备好为您提供帮助。
警告
使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 。此步骤至关重要,因为它可以确保您的数据库正确挂载并防止任何数据丢失。
-v open-webui:/app/backend/data
提示
如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有 或 的官方图像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。:cuda:ollama
使用默认配置安装
如果 Ollama 在您的计算机上,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果 Ollama 位于其他服务器上,请使用以下命令:
要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
注意事项
- 确保依赖项正确安装:确保所有依赖项如 cuDNN、OpenCV 和 Python 包已正确安装并可用。
- 检查 GPU 驱动:确保所有 GPU 设备的驱动程序已更新到最新版本,并且在 OpenWebUI 中能够正确识别。
- 禁用防火墙或设置安全组:如果使用私有 URL,建议暂时关闭防火墙以避免被拦截。
- 更新软件包:定期运行
sudo apt update && sudo apt upgrade
来确保所有软件包是最新的。
结论
通过以上步骤,在 Ubuntu WSL 中可以顺利安装并配置 Ollama 和 OpenWebUI,从而实现本地化部署大模型的能力。这种方法不仅节省了对公共云服务的依赖,还能够更灵活地调整模型参数和硬件资源以提升推理性能。对于希望在本地环境中运行 AI 模型的开发者来说,这种配置方案是一个高效且易于操作的选择。
此外,还可以根据需求选择其他开源 AI 框架,如 Meta 的 LLMToolbelt 或者深度求索的 QwenEE,以满足不同的项目需求和场景。
评论 (0)