Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南
标签搜索

Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南

kookboy
2025-01-29 / 0 评论 / 108 阅读 / 正在检测是否收录...

Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南

随着人工智能技术的快速发展,本地部署大模型已经成为许多开发者追求的目标。在 Ubuntu 系统中,结合 Windows 子系统 for Linux(WSL)可以无缝集成 Linux 操作系统,从而方便地安装和使用基于 Linux 的开源 AI 工具链。本文将详细指导如何在 Ubuntu WSL 中安装 Ollama 和 OpenWebUI,并完成对大模型的本地化部署。

背景知识

  1. WSL 简介

    Windows 子系统 for Linux(WSL)是微软为 Windows 用户量身定制的工具包,允许用户在 Windows 系统中运行基于 Linux 的操作系统。通过 WSL,开发者可以使用熟悉或需要的 Linux 工具链进行开发和部署。

  2. Ollama

    Ollama 是 Meta 推出的一个开源大语言模型推理框架,支持本地化部署。它可以通过 WebUI(Web User Interface)界面提供交互体验,并且能够集成到各种应用中使用。

  3. OpenWebUI

    OpenWebUI 是一个基于 HTML、CSS 和 JavaScript 的开源 Ollama 实例服务(OAS)前端,提供了友好的用户界面,方便用户进行模型推理的配置和操作。

安装准备

在 Ubuntu 中运行 WSL 前,请确保以下环境配置已准备好:

  • 操作系统:安装 Ubuntu 22.04 LTS 或更高版本。
  • 必要硬件支持:确保电脑配备适当的 GPU(推荐使用 RTX 系列)和足够的内存(通常至少 8GB),以支持大模型的推理性能。

Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置

  1. 安装 Ubuntu WSL

    如果尚未安装 WSL,请按照以下步骤进行:

    • 打开终端。
    • 运行命令 wsl install 加载默认软件包。
    • 确保添加了 WSL 包,并在控制台中运行以确认安装。
  2. 安装 Ollama
    要安装 Ollama,请运行以下命令:
curl -fsSL https://ollama.com/install.sh | sh

如果发现网络问题下载不下来:

wget https://ollama.com/install.sh #下载到当前目录
chmod +x install.sh   #给予执行权要
./install.sh    #运行脚本程序

如果上述方法都无法解决问题,可以尝试手动下载安装脚本:

  1. 打开浏览器,访问https://ollama.com/install.sh,将页面内容复制到本地文件 install.sh中。
  2. 保存文件后,使用终端进入文件所在目录,运行以下命令:
    bash复制

    chmod +x install.sh
    ./install.sh

通过这些方法,你应该能够解决下载速度慢的问题,顺利安装Ollama。

手动安装

注意

如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama

下载并解压缩包,不用脚本下载和安装方法:

#命令下载
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz 
#直接到ollama的github网站下载压缩包

sudo tar -C /usr -xzf ollama-linux-amd64.tgz #运行解压安装命令

启动 Ollama:

ollama serve

在另一个终端中,验证 Ollama 是否正在运行:

ollama -v

AMD GPU 安装

如果您有 AMD GPU,还要下载并解压缩其他 ROCm 软件包:

curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz
sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgz

ARM64 安装

下载并解压缩特定于 ARM64 的包:

curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz
sudo tar -C /usr -xzf ollama-linux-arm64.tgz

将 Ollama 添加为启动服务(推荐)

为 Ollama 创建用户和组:

sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)

在 中创建服务文件 :/etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"

[Install]
WantedBy=default.target

然后启动服务:

sudo systemctl daemon-reload
sudo systemctl enable ollama

卸载

删除 ollama 服务:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

从 bin 目录中删除 ollama 二进制文件(、 、 或 ):/usr/local/bin/usr/bin`/bin`

sudo rm $(which ollama)

删除下载的模型以及 Ollama 服务用户和组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama
  1. 安装 OpenWebUI
  • 通过 Python pip 🐍 安装
    Open WebUI 可以使用 Python 包安装程序 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11 以避免兼容性问题。

安装 Open WebUI: 打开终端并运行以下命令以安装 Open WebUI:

pip install open-webui

运行 Open WebUI: 安装后,您可以通过执行以下命令来启动 Open WebUI:

open-webui serve

这将启动 Open WebUI 服务器,您可以在 http://localhost:8080

  • 通过Docker 🐳 快速安装
    注意

请注意,对于某些 Docker 环境,可能需要其他配置。如果您遇到任何连接问题,我们关于 Open WebUI 文档的详细指南已准备好为您提供帮助。

警告

使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 。此步骤至关重要,因为它可以确保您的数据库正确挂载并防止任何数据丢失。

-v open-webui:/app/backend/data

提示

如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有 或 的官方图像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。:cuda:ollama

使用默认配置安装
如果 Ollama 在您的计算机上,请使用以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果 Ollama 位于其他服务器上,请使用以下命令:

要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URL

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

注意事项

  1. 确保依赖项正确安装:确保所有依赖项如 cuDNN、OpenCV 和 Python 包已正确安装并可用。
  2. 检查 GPU 驱动:确保所有 GPU 设备的驱动程序已更新到最新版本,并且在 OpenWebUI 中能够正确识别。
  3. 禁用防火墙或设置安全组:如果使用私有 URL,建议暂时关闭防火墙以避免被拦截。
  4. 更新软件包:定期运行 sudo apt update && sudo apt upgrade 来确保所有软件包是最新的。

结论

通过以上步骤,在 Ubuntu WSL 中可以顺利安装并配置 Ollama 和 OpenWebUI,从而实现本地化部署大模型的能力。这种方法不仅节省了对公共云服务的依赖,还能够更灵活地调整模型参数和硬件资源以提升推理性能。对于希望在本地环境中运行 AI 模型的开发者来说,这种配置方案是一个高效且易于操作的选择。

此外,还可以根据需求选择其他开源 AI 框架,如 Meta 的 LLMToolbelt 或者深度求索的 QwenEE,以满足不同的项目需求和场景。

1

评论 (0)

取消