首页
关于
Search
1
Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南
153 阅读
2
Ubuntu 24.04 LTS 下 Fcitx5 + 五笔输入法 的完整安装与配置
118 阅读
3
利用WSL进行AI本地化部署的一些优势
72 阅读
4
Windows 11 安装 WSL 的详细指南
50 阅读
5
Windows 11如何安装WSL?AI潮流时代它很有用途
39 阅读
默认分类
AI应用
AI部署
AI资源
网络资源
登录
Search
标签搜索
wsl
ubuntu
孤风
累计撰写
10
篇文章
累计收到
13
条评论
首页
栏目
默认分类
AI应用
AI部署
AI资源
网络资源
页面
关于
搜索到
10
篇与
的结果
2025-09-04
Ubuntu 24.04 LTS 安装、配置与使用常见问题及解决方案
Ubuntu 24.04 LTS 安装、配置与使用常见问题及解决方案一、安装阶段常见问题1. 启动盘制作失败问题描述:使用Rufus制作启动盘时提示“无法分配驱动器号”解决方案:将ISO文件从U盘中移出到电脑其他位置,重新选择ISO文件制作2. 显卡兼容性问题问题描述:安装后黑屏或无法进入系统(常见于RTX 5060等新显卡)解决方案:开机添加内核参数:nomodeset acpi=off确认显卡与Ubuntu 24.04的兼容性,必要时升级内核至6.13以上3. 分区设置错误问题描述:手动分区时提示空间不足或挂载点错误解决方案:使用“使用整个磁盘”选项自动分区手动分区时确保根分区(/)不少于25GB二、初始配置阶段常见问题1. 软件更新失败问题描述:sudo apt update 提示源连接超时或404错误解决方案:更换软件源为阿里云或清华源:sudo sed -i 's/archive.ubuntu.com/mirrors.aliyun.com/g' /etc/apt/sources.list删除失效或报错的第三方源2. 显卡驱动安装失败问题描述:安装NVIDIA驱动后黑屏或nvidia-smi无输出解决方案:安装推荐版本驱动(如545或550):sudo apt install nvidia-driver-545 sudo apt-mark hold nvidia-driver-545 # 锁定版本防止更新若安装失败,进入命令行模式(Ctrl+Alt+F3),关闭图形界面后重新安装3. 网络连接异常问题描述:无法联网或DNS解析失败解决方案:检查DNS设置:sudo nano /etc/resolv.conf # 添加 nameserver 8.8.8.8重启网络服务:sudo systemctl restart NetworkManager三、使用阶段常见问题1. SSH无法远程连接问题描述:安装后无法通过SSH连接系统解决方案:安装并启动SSH服务:sudo apt install ssh sudo systemctl enable --now ssh检查防火墙设置,允许22端口:sudo ufw allow 222. 系统卡顿或交换分区频繁使用问题描述:系统运行缓慢,即使内存充足也使用swap解决方案:降低swap使用频率:sudo nano /etc/sysctl.conf # 添加 vm.swappiness=10 sudo sysctl -p3. 安装软件时提示依赖错误问题描述:使用apt install时提示依赖关系未满足解决方案:修复损坏的依赖:sudo apt --fix-broken install sudo apt update && sudo apt upgrade4. 系统更新后无法启动问题描述:执行sudo do-release-upgrade后重启失败解决方案:进入恢复模式,选择“修复损坏的软件包”若内核升级失败,尝试在GRUB中选择旧内核启动四、其他实用建议场景建议备份系统安装Timeshift,定期创建系统快照驱动管理使用ubuntu-drivers devices查看推荐驱动日志排查使用journalctl -xe查看系统日志定位错误社区支持访问Ubuntu中文论坛获取帮助参考资料 : Ubuntu 24.04 LTS 桌面版安装问题记录 - CSDN : nVidia Driver on Ubuntu Server 24.04 - 方格子 : 【ubuntu】手动更新ubuntu23.10 到24.04 LTS版本 - 博客园 : ubuntu 修改软件源为阿里源镜像 - CSDN博客 : Ubuntu 24.04.2 LTS-显卡-RTX5060驱动安装 - 稀土掘金
2025年09月04日
10 阅读
0 评论
0 点赞
2025-09-04
Ubuntu 24.04 LTS 中文输入法与常用社交软件安装问题汇总
Ubuntu 24.04 LTS 中文输入法与常用社交软件安装问题汇总一、Fcitx5 输入法安装与配置1. 安装 Fcitx5 框架sudo apt update sudo apt install fcitx5 fcitx5-config-qt fcitx5-frontend-gtk4 fcitx5-frontend-qt52. 添加中文输入法(以“雾凇拼音”为例)sudo apt install fcitx5-chinese-addons3. 设置环境变量编辑 ~/.xprofile 或 ~/.pam_environment,添加:export GTK_IM_MODULE=fcitx5 export QT_IM_MODULE=fcitx5 export XMODIFIERS="@im=fcitx5"4. 常见问题Chrome/Edge 无法输入中文 安装 GTK4 支持模块后重启浏览器即可:sudo apt install fcitx5-frontend-gtk4实测在 Ubuntu 24.04 + Chrome 135 版本下有效。输入法闪烁或无法唤出 尝试禁用 Wayland,改用 X11 登录:sudo nano /etc/gdm3/custom.conf # 取消注释 WaylandEnable=false二、QQ、微信、音乐播放器等常用软件安装1. QQ(Linux 版)wget https://dldir1.qq.com/qqfile/qq/QQNT/Linux/QQ_3.2.9_240617_amd64_01.deb sudo dpkg -i QQ_3.2.9_240617_amd64_01.deb官方已支持 x86/ARM/LoongArch 架构。2. 微信(Linux 原生)# 下载官方 .deb 包(需从微信官网获取最新版) sudo apt install ~/Downloads/WeChatLinux*.deb若提示缺少依赖,执行 sudo apt --fix-broken install 即可。3. 音乐播放器软件安装命令QQ 音乐sudo snap install qq-music网易云音乐sudo snap install netease-cloud-musicAudacioussudo apt install audacious三、常见问题速查表现象解决命令Chrome 中文输入失效sudo apt install fcitx5-frontend-gtk4微信安装后无法启动sudo apt --fix-broken installQQ 图标不显示安装 sudo apt install libappindicator3-1输入法无法切换重启 Fcitx5:fcitx5 -r四、小结输入法:优先使用 Fcitx5 + 雾凇拼音,兼容性好。社交软件:QQ、微信已有官方 Linux 包,直接 dpkg -i 安装。音乐:Snap 源提供 QQ 音乐、网易云音乐,一键安装。完成以上步骤后,Ubuntu 24.04 即可满足日常中文办公与娱乐需求。
2025年09月04日
22 阅读
0 评论
0 点赞
2025-09-04
Ubuntu 24.04 LTS 下 Fcitx5 + 五笔输入法 的完整安装与配置
Ubuntu 24.04 LTS 安装 Fcitx5 五笔输入法(一步到位)1. 安装 Fcitx5 框架与五笔引擎sudo apt update sudo apt install \ fcitx5 \ fcitx5-config-qt \ fcitx5-frontend-gtk3 \ fcitx5-frontend-gtk4 \ fcitx5-frontend-qt5 \ fcitx5-chinese-addons # 包含五笔2. 确认已安装的五笔相关包apt list --installed | grep fcitx5 | grep -E 'wubi|table'正常应能看到:fcitx5-table-wubi(内置 86/98 五笔)fcitx5-table-zhwiki(超大词库,可选)若未自动装全,手动补:sudo apt install fcitx5-table-wubi fcitx5-table-zhwiki3. 配置环境变量(Wayland & X11 通用)创建或编辑 ~/.pam_environment(推荐,GNOME 官方认可):GTK_IM_MODULE DEFAULT=fcitx5 QT_IM_MODULE DEFAULT=fcitx5 XMODIFIERS DEFAULT=\@im=fcitx5保存后 完全退出账号 → 重新登录 即可生效。4. 添加五笔到输入法列表打开 Fcitx5 配置(Activities 搜索 “Fcitx5 Configuration”)点击 + → 取消 “Only Show Current Language” → 搜索 “Wubi” 或 “五笔”选中 “Wubi拼音”(五笔+拼音混合)或 “Wubi”(纯五笔)→ 添加用 ↑/↓ 调整顺序,Ctrl+Space 默认切换五笔专用技巧 & 常见坑问题现象解决五笔图标灰色,打不出汉字未启用中文表格确认已添加 Wubi 方案,并排在首位候选框只显示字母环境变量未生效检查 ~/.pam_environment 拼写,重启会话98 版五笔缺字默认是 86 版手动安装 98 码表:sudo apt install fcitx5-table-wubi-98词库太老重码多导入搜狗细胞词库(五笔版):下载 .scel → 用 imewlconverter 转 txt → 再用 Fcitx5 “导入” 功能Chrome 里五笔无效Wayland 下 GTK4 前端缺失sudo apt install fcitx5-frontend-gtk4 后重启浏览器懒人一键脚本(复制即可跑)#!/bin/bash set -e sudo apt update sudo apt install -y fcitx5 fcitx5-config-qt \ fcitx5-frontend-gtk{3,4} fcitx5-frontend-qt5 \ fcitx5-table-wubi fcitx5-table-zhwiki cat >> ~/.pam_environment <<'EOF' GTK_IM_MODULE DEFAULT=fcitx5 QT_IM_MODULE DEFAULT=fcitx5 XMODIFIERS DEFAULT=\@im=fcitx5 EOF echo "请注销并重新登录,然后运行 fcitx5-configtool 添加五笔。"保存为 install-wubi.sh,chmod +x 后执行即可。小结只装 fcitx5-table-wubi 就够,86/98 五笔自带。环境变量用 ~/.pam_environment,Wayland 也能用。遇到浏览器无效,优先补 fcitx5-frontend-gtk4。搞定后,Ctrl+Space 就是五笔,无需再装任何拼音方案。
2025年09月04日
118 阅读
3 评论
0 点赞
2025-02-11
清华大学《DeepSeek:从入门到精通》
《DeepSeek:从入门到精通》是一本由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室余梦珑博士后及其团队编写的全面指导手册,旨在帮助用户深入了解并掌握DeepSeek这一人工智能工具的使用方法和应用场景。以下是关于该书的详细信息:1. 书籍背景与作者本书由清华大学新闻与传播学院新媒体研究中心元宇宙文化实验室编写,核心作者包括余梦珑博士后及其团队成员。他们通过深入研究和实践,为读者提供了从基础到高级的全方位学习资源。2. 内容概述《DeepSeek:从入门到精通》共104页,内容涵盖DeepSeek的核心功能、应用场景、使用方法以及提示语设计等多个方面。书中详细介绍了以下内容:DeepSeek的基本功能:包括文本生成、自然语言理解、编程支持、数据可视化等。使用指南:如何访问平台、联网搜索、文件上传等操作步骤。提示语设计:提示语的基本结构、优化技巧及策略。进阶应用:提示词工程、框架搭建、三重概率模型等高级技巧。实际案例:涵盖智能办公、教育辅助、商业分析、客户服务等多个领域。3. 目标读者本书适合以下几类人群:AI初学者:通过本书可以快速了解DeepSeek的基本概念和操作方法。专业人士:如研究人员、学生、企业职员等,利用DeepSeek提升工作效率和创新能力。技术爱好者:希望深入学习AI技术并应用于实际场景的用户。4. 特色亮点全面性:书中不仅覆盖了基础功能,还深入探讨了提示语设计和AI进阶使用。实用性:通过大量案例分析,帮助用户更好地理解和应用DeepSeek。免费资源:本书为PDF格式,免费提供下载,方便用户随时查阅。5. 相关资源除了书籍本身,清华大学还提供了配套的视频教程和PPT资源,帮助用户更直观地学习DeepSeek的原理和使用方法。6. 总结《DeepSeek:从入门到精通》是一本极具价值的学习指南,它不仅帮助用户快速掌握DeepSeek的使用技巧,还通过丰富的案例和进阶内容,为用户提供了一个深入探索AI技术的平台。无论是AI新手还是资深用户,都可以从中获得实用的知识和技能。如果您对AI技术感兴趣,这本书无疑是值得推荐的学习资源。下载:清华大学104页《DeepSeek:从入门到精通》.pdf
2025年02月11日
28 阅读
0 评论
1 点赞
2025-01-29
Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南
Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置指南随着人工智能技术的快速发展,本地部署大模型已经成为许多开发者追求的目标。在 Ubuntu 系统中,结合 Windows 子系统 for Linux(WSL)可以无缝集成 Linux 操作系统,从而方便地安装和使用基于 Linux 的开源 AI 工具链。本文将详细指导如何在 Ubuntu WSL 中安装 Ollama 和 OpenWebUI,并完成对大模型的本地化部署。背景知识WSL 简介Windows 子系统 for Linux(WSL)是微软为 Windows 用户量身定制的工具包,允许用户在 Windows 系统中运行基于 Linux 的操作系统。通过 WSL,开发者可以使用熟悉或需要的 Linux 工具链进行开发和部署。OllamaOllama 是 Meta 推出的一个开源大语言模型推理框架,支持本地化部署。它可以通过 WebUI(Web User Interface)界面提供交互体验,并且能够集成到各种应用中使用。OpenWebUIOpenWebUI 是一个基于 HTML、CSS 和 JavaScript 的开源 Ollama 实例服务(OAS)前端,提供了友好的用户界面,方便用户进行模型推理的配置和操作。安装准备在 Ubuntu 中运行 WSL 前,请确保以下环境配置已准备好:操作系统:安装 Ubuntu 22.04 LTS 或更高版本。必要硬件支持:确保电脑配备适当的 GPU(推荐使用 RTX 系列)和足够的内存(通常至少 8GB),以支持大模型的推理性能。Ubuntu WSL 中 Ollama 和 OpenWebUI 的安装与配置安装 Ubuntu WSL如果尚未安装 WSL,请按照以下步骤进行:打开终端。运行命令 wsl install 加载默认软件包。确保添加了 WSL 包,并在控制台中运行以确认安装。安装 Ollama要安装 Ollama,请运行以下命令:curl -fsSL https://ollama.com/install.sh | sh如果发现网络问题下载不下来:wget https://ollama.com/install.sh #下载到当前目录 chmod +x install.sh #给予执行权要 ./install.sh #运行脚本程序如果上述方法都无法解决问题,可以尝试手动下载安装脚本:打开浏览器,访问https://ollama.com/install.sh,将页面内容复制到本地文件 install.sh中。保存文件后,使用终端进入文件所在目录,运行以下命令:bash复制chmod +x install.sh ./install.sh通过这些方法,你应该能够解决下载速度慢的问题,顺利安装Ollama。手动安装注意如果要从以前的版本升级,则应使用 first 删除旧库。sudo rm -rf /usr/lib/ollama下载并解压缩包,不用脚本下载和安装方法:#命令下载 curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz #直接到ollama的github网站下载压缩包 sudo tar -C /usr -xzf ollama-linux-amd64.tgz #运行解压安装命令启动 Ollama:ollama serve在另一个终端中,验证 Ollama 是否正在运行:ollama -vAMD GPU 安装如果您有 AMD GPU,还要下载并解压缩其他 ROCm 软件包:curl -L https://ollama.com/download/ollama-linux-amd64-rocm.tgz -o ollama-linux-amd64-rocm.tgz sudo tar -C /usr -xzf ollama-linux-amd64-rocm.tgzARM64 安装下载并解压缩特定于 ARM64 的包:curl -L https://ollama.com/download/ollama-linux-arm64.tgz -o ollama-linux-arm64.tgz sudo tar -C /usr -xzf ollama-linux-arm64.tgz将 Ollama 添加为启动服务(推荐)为 Ollama 创建用户和组:sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama sudo usermod -a -G ollama $(whoami)在 中创建服务文件 :/etc/systemd/system/ollama.service[Unit] Description=Ollama Service After=network-online.target [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3 Environment="PATH=$PATH" [Install] WantedBy=default.target然后启动服务:sudo systemctl daemon-reload sudo systemctl enable ollama卸载删除 ollama 服务:sudo systemctl stop ollama sudo systemctl disable ollama sudo rm /etc/systemd/system/ollama.service从 bin 目录中删除 ollama 二进制文件(、 、 或 ):/usr/local/bin/usr/bin`/bin`sudo rm $(which ollama)删除下载的模型以及 Ollama 服务用户和组:sudo rm -r /usr/share/ollama sudo userdel ollama sudo groupdel ollama安装 OpenWebUI通过 Python pip 🐍 安装Open WebUI 可以使用 Python 包安装程序 pip 进行安装。在继续之前,请确保您使用的是 Python 3.11 以避免兼容性问题。安装 Open WebUI: 打开终端并运行以下命令以安装 Open WebUI:pip install open-webui运行 Open WebUI: 安装后,您可以通过执行以下命令来启动 Open WebUI:open-webui serve这将启动 Open WebUI 服务器,您可以在 http://localhost:8080通过Docker 🐳 快速安装注意请注意,对于某些 Docker 环境,可能需要其他配置。如果您遇到任何连接问题,我们关于 Open WebUI 文档的详细指南已准备好为您提供帮助。警告使用 Docker 安装 Open WebUI 时,请确保在 Docker 命令中包含 。此步骤至关重要,因为它可以确保您的数据库正确挂载并防止任何数据丢失。-v open-webui:/app/backend/data提示如果您希望使用包含 Ollama 或 CUDA 加速的 Open WebUI,我们建议您使用带有 或 的官方图像。要启用 CUDA,您必须在 Linux/WSL 系统上安装 Nvidia CUDA 容器工具包。:cuda:ollama使用默认配置安装如果 Ollama 在您的计算机上,请使用以下命令:docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main如果 Ollama 位于其他服务器上,请使用以下命令:要连接到另一台服务器上的 Ollama,请将 更改为服务器的 URL:OLLAMA_BASE_URLdocker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda注意事项确保依赖项正确安装:确保所有依赖项如 cuDNN、OpenCV 和 Python 包已正确安装并可用。检查 GPU 驱动:确保所有 GPU 设备的驱动程序已更新到最新版本,并且在 OpenWebUI 中能够正确识别。禁用防火墙或设置安全组:如果使用私有 URL,建议暂时关闭防火墙以避免被拦截。更新软件包:定期运行 sudo apt update && sudo apt upgrade 来确保所有软件包是最新的。结论通过以上步骤,在 Ubuntu WSL 中可以顺利安装并配置 Ollama 和 OpenWebUI,从而实现本地化部署大模型的能力。这种方法不仅节省了对公共云服务的依赖,还能够更灵活地调整模型参数和硬件资源以提升推理性能。对于希望在本地环境中运行 AI 模型的开发者来说,这种配置方案是一个高效且易于操作的选择。此外,还可以根据需求选择其他开源 AI 框架,如 Meta 的 LLMToolbelt 或者深度求索的 QwenEE,以满足不同的项目需求和场景。
2025年01月29日
153 阅读
1 评论
1 点赞
1
2