Skip to content

Ollama 本地安装完整指南 - 从零到一部署大语言模型

发布日期: 2026-03-21 | 字数: 约 8500 字 | 阅读时间: 约 15 分钟

概述

Ollama 是一个让普通人也能轻松在个人电脑上部署和运行顶尖 AI 模型的工具。它解决了云端 API 的隐私安全问题和复杂的部署流程,支持在本地运行强大的大语言模型。

本文将带你完成从系统检查到模型运行的全过程,即使是技术新手也能顺利上手。学完本教程后,你将能够在自己的电脑上运行 Qwen、DeepSeek、Llama 等主流大模型。

⚠️ 安装前的常见误区

误区 1:需要高端 GPU

真相: Ollama 支持 CPU 运行,轻量级模型如 Qwen2.5:1.8B 在 8GB 内存的电脑上也能运行,只是速度较慢。

误区 2:系统兼容性不清

真相: Ollama 支持 Windows 10/11、macOS 12+ 和主流 Linux 发行版,但需要明确具体版本要求。

误区 3:忽略环境变量配置

真相: 部分用户直接下载安装包却忽略了"Add to PATH"选项,导致命令行无法识别 ollama 命令。

误区 4:新手直接上大模型

真相: 新手往往直接下载最大模型,结果因硬件不足导致运行失败。建议从 7B 或更小模型开始。

误区 5:下载慢是网络问题

真相: 模型下载速度慢并非都是网络问题,很多时候是因为没有配置国内镜像源。

第一章:系统兼容性检查

Windows 系统要求

项目最低配置推荐配置
操作系统Windows 10 64 位Windows 11
处理器架构x86_64x86_64 支持 AVX2 指令集
内存8GB16GB
CPU4 核支持 AVX2 指令集
GPU可选NVIDIA GPU(4GB+ 显存)

macOS 系统要求

项目最低配置推荐配置
操作系统macOS 12 (Monterey)macOS 14+
处理器架构Apple Silicon 或 IntelApple Silicon(M1/M2/M3)
内存8GB16GB

Linux 系统要求

项目最低配置推荐配置
支持的发行版Ubuntu 20.04+、Debian 11+、CentOS 8+、Fedora 36+最新稳定版
处理器架构x86_64 或 ARM64x86_64
内存8GB16GB
GPU可选NVIDIA/AMD GPU(支持 CUDA/ROCm)

模型规模与硬件要求参考

模型规模显存要求内存要求推荐场景
3B(轻量)3GB+8GB+低配设备、快速测试
7B(推荐)4-6GB16GB+日常开发、个人使用
13B(进阶)10-12GB32GB+专业应用、团队协作
30B+(专业)24GB+64GB+企业部署、复杂任务

第二章:安装文件获取

Windows 系统

macOS 系统

  • 方法一: 官网下载 dmg 安装包
  • 方法二: 使用 Homebrew 安装(推荐)

Linux 系统

  • 一键安装脚本(推荐)
  • 支持 Ubuntu、Debian、CentOS 等主流发行版

第三章:分平台安装步骤详解

Windows 安装步骤

  1. 下载安装包

  2. 运行安装程序

    • 双击运行安装程序
    • 出现安装界面后点击"Install"
    • 务必勾选"Add to PATH"选项(重要!)
  3. 等待安装完成

    • 通常需要 1-2 分钟
    • 安装完成后 Ollama 服务会自动启动
    • 系统托盘会出现 Ollama 图标
  4. 验证安装

    • 打开 PowerShell 或命令提示符
    • 执行 ollama --version

Ollama for Windows 安装界面

macOS 安装步骤

方法一:通过 dmg 安装包

  1. 下载 Ollama-darwin.zip 并解压
  2. 将 Ollama 拖入 Applications 文件夹
  3. 从应用程序启动 Ollama

方法二:通过 Homebrew 安装(推荐)

bash
# 安装 Ollama
brew install ollama

# 启动服务
brew services start ollama

# 验证安装
ollama --version

Linux 安装步骤

bash
# 一键安装(推荐)
curl -fsSL https://ollama.com/install.sh | sh

# 设置开机自启
sudo systemctl enable ollama

# 手动控制服务
sudo systemctl start ollama
sudo systemctl stop ollama
sudo systemctl status ollama

# 验证安装
ollama --version

第四章:基础配置与验证

验证安装是否成功

打开终端(Windows 为 PowerShell/CMD,macOS/Linux 为 Terminal),执行:

bash
ollama --version

如果安装成功,会显示版本信息,例如:

ollama version is 0.13.0

环境变量配置(国内用户推荐)

为了提升体验,建议配置国内镜像加速:

bash
# macOS/Linux
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

永久生效(macOS/Linux):

bash
# 添加到 ~/.zshrc 或 ~/.bashrc
echo 'export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"' >> ~/.zshrc
source ~/.zshrc

测试模型运行

安装完成后,下载并运行一个轻量级模型进行测试:

bash
# 下载并运行 Qwen2.5 1.8B 模型(中文优化,适合入门)
ollama run qwen2.5:1.8b

首次运行会自动下载模型,下载完成后进入交互模式。

第五章:常用模型推荐

模型说明显存占用下载命令
qwen2.5:7b通义千问 2.5,中文效果优异~4.5GBollama pull qwen2.5:7b
qwen2.5:14b更强中文能力,适合专业场景~9GBollama pull qwen2.5:14b
deepseek-r1:7bDeepSeek 推理模型~4.5GBollama pull deepseek-r1:7b
gemma2:9bGoogle 开源模型~5.5GBollama pull gemma2:9b
llama3.1:8bMeta Llama 3.1~5GBollama pull llama3.1:8b

模型选择建议

  • 入门测试: qwen2.5:1.8b 或 qwen2.5:3b
  • 日常使用: qwen2.5:7b(平衡性能与资源)
  • 专业场景: qwen2.5:14b 或更高
  • 推理任务: deepseek-r1:7b
  • 英文任务: llama3.1:8b

第六章:常见问题解决

🔧 高频问题及解决方案

1. 安装后命令行提示"ollama 不是内部或外部命令"

原因: 未勾选"Add to PATH"或环境变量未生效

解决方案:

  • Windows 重新安装并确保勾选"Add to PATH"
  • 或手动添加 Ollama 安装目录到系统 PATH
  • 重启终端或电脑使环境变量生效

手动添加 PATH(Windows):

powershell
# 添加到用户环境变量
[Environment]::SetEnvironmentVariable("Path", $env:Path + ";C:\Users\你的用户名\AppData\Local\Programs\Ollama", "User")

2. 模型下载速度慢或失败

原因: 默认从海外服务器下载,国内网络访问不稳定

解决方案: 配置国内镜像

bash
# macOS/Linux
export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

# Windows PowerShell
$env:OLLAMA_MODEL_SERVER="https://mirror.ollama.com"

或使用代理:

bash
export HTTP_PROXY="http://proxy-server:port"
export HTTPS_PROXY="http://proxy-server:port"

3. 启动失败,提示"端口被占用"

原因: Ollama 默认使用 11434 端口,可能被其他程序占用

解决方案:

Windows:

cmd
# 查看占用进程
netstat -ano | findstr :11434
# 结束进程(替换 PID)
taskkill /PID 进程号 /F

Linux/macOS:

bash
# 查看占用进程
lsof -i :11434
# 结束进程
kill -9 进程号

4. 内存/显存不足,模型无法加载

原因: 模型规模超过硬件能力

解决方案:

  1. 选择更小的模型(如从 7B 改为 3B)
  2. 使用量化版本:ollama pull qwen2.5:7b-q4_0
  3. 增加虚拟内存(Windows)或交换空间(Linux)

Windows 增加虚拟内存:

  1. 右键"此电脑" → 属性 → 高级系统设置
  2. 高级 → 性能设置 → 高级 → 虚拟内存
  3. 设置为物理内存的 1.5-2 倍

5. 权限错误"Permission denied"

原因: Ollama 没有足够权限访问模型目录

解决方案:

Linux/macOS:

bash
# 修复权限
sudo chown -R $USER:$USER ~/.ollama
sudo chmod -R 755 ~/.ollama

6. 模型运行缓慢

原因: CPU 运行或模型过大

解决方案:

  1. 使用更小的模型或量化版本
  2. 确保 GPU 加速已启用
  3. 关闭其他占用内存的程序

检查 GPU 加速:

bash
# 查看是否使用 GPU
ollama run 模型名
# 观察日志中是否有 GPU 相关信息

7. 中文输出乱码

原因: 终端编码问题

解决方案:

Windows PowerShell:

powershell
# 设置 UTF-8 编码
[Console]::OutputEncoding = [System.Text.Encoding]::UTF8

或在 PowerShell 配置文件中添加:

powershell
$PSDefaultParameterValues['Out-File:Encoding'] = 'utf8'

8. 模型列表为空或显示不全

原因: 模型目录权限问题或配置文件损坏

解决方案:

bash
# 重启 Ollama 服务
# Windows: 重启系统托盘中的 Ollama
# macOS/Linux:
brew services restart ollama
# 或
sudo systemctl restart ollama

9. 更新后出现兼容性问题

原因: 新版本与旧配置不兼容

解决方案:

bash
# 备份配置
cp -r ~/.ollama ~/.ollama.backup

# 重置配置
rm -rf ~/.ollama

# 重新安装
# macOS
brew reinstall ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh

10. 无法连接到 Ollama 服务

原因: 服务未启动或防火墙阻止

解决方案:

检查服务状态:

bash
# macOS
brew services list | grep ollama
# Linux
systemctl status ollama

启动服务:

bash
# macOS
brew services start ollama
# Linux
sudo systemctl start ollama

检查防火墙:

bash
# 允许 11434 端口
# Ubuntu/Debian
sudo ufw allow 11434
# CentOS/Fedora
sudo firewall-cmd --add-port=11434/tcp --permanent
sudo firewall-cmd --reload

第七章:基本命令参考

模型管理

bash
# 查看版本
ollama --version

# 列出已安装的模型
ollama list

# 下载模型
ollama pull 模型名

# 运行模型
ollama run 模型名

# 删除模型
ollama rm 模型名

# 查看模型信息
ollama show 模型名

# 更新 Ollama
ollama update

高级用法

bash
# 指定模型参数运行
ollama run 模型名 --num_ctx 4096 --temperature 0.7

# 从文件读取输入
ollama run 模型名 < input.txt

# 管道输入
echo "你好" | ollama run 模型名

# API 方式调用
curl http://localhost:11434/api/generate -d '{
  "model": "qwen2.5:7b",
  "prompt": "你好"
}'

第八章:图形界面推荐

Open WebUI(推荐)

Open WebUI 是一个功能强大的 Web 界面,提供类似 ChatGPT 的交互体验。

安装(Docker):

bash
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

访问:http://localhost:3000

其他界面

  • Ollama WebUI - 轻量级 Web 界面
  • Continue - VS Code 插件
  • Cursor - AI 代码编辑器

✅ 一页纸行动清单

  1. ✅ 检查操作系统版本(Win10+/macOS12+/Linux 最新发行版)
  2. ✅ 确认硬件配置(至少 8GB 内存)
  3. ✅ 根据系统选择安装方式(安装包/包管理器/脚本)
  4. ✅ 安装时勾选"Add to PATH"(Windows)
  5. ✅ 验证安装:ollama --version
  6. ✅ 配置国内镜像:export OLLAMA_MODEL_SERVER="https://mirror.ollama.com"
  7. ✅ 下载适合的模型(推荐从 7B 开始)
  8. ✅ 测试运行:ollama run 模型名
  9. ✅ 安装 Open WebUI 获得图形界面
  10. ✅ 学习基本命令:listpullrmshow

总结

Ollama 让本地部署大语言模型变得前所未有的简单。通过本教程,你已经掌握了:

  • 系统兼容性检查方法
  • 三平台安装步骤
  • 国内镜像配置
  • 模型选择建议
  • 10 大常见问题解决
  • 基本命令和高级用法

现在就开始你的本地 AI 之旅吧!本地部署的优势在于:

  • 🔒 隐私安全 - 数据不出本地
  • 💰 零成本 - 无需 API 费用
  • 低延迟 - 无需网络请求
  • 🎯 可定制 - 完全掌控模型配置

参考资源


来源: 微信公众号《科学次位面》- 《从零到一:Ollama 本地安装完整指南(附 10 大常见问题解决)》

原始链接: https://mp.weixin.qq.com/s/-gaiwkWNVrUIWnNfcJezdA

Released under the MIT License.