一、Ollama 安装方法概述
Ollama 是一个开源的大型语言模型(LLM)本地部署工具,支持在 Windows、macOS 和 Linux 系统上运行。它简化了在本地计算机上运行和管理大语言模型的流程,让开发者能够轻松部署各种开源模型。
Windows 系统安装步骤
- 访问 Ollama 官网(https://ollama.com) 下载 Windows 安装包
- 双击下载的安装程序(OllamaSetup.exe)
- 按照安装向导提示完成安装
- 安装完成后,任务栏右下角会出现 Ollama 图标
- 验证安装:打开命令提示符(cmd),输入
ollama --version
查看版本信息
macOS 系统安装步骤
- 从官网下载 macOS 版本的安装包
- 双击下载的.dmg文件并拖拽到应用程序文件夹
- 首次运行时需要在系统偏好设置中允许运行
- 验证安装:打开终端,输入
ollama --version
Linux 系统安装步骤
- 使用官方一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
- 或者手动下载二进制文件并配置:
- 从 GitHub 下载对应架构的安装包
- 解压到/opt/ollama目录
- 添加环境变量
- 设置为系统服务
Docker 安装方式
对于熟悉 Docker 的用户,可以通过以下命令安装:
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
这种方式适合需要在容器环境中运行的用户。
安装后配置建议
- 修改默认模型存储路径(避免占用C盘空间):
- Windows:设置系统环境变量OLLAMA_MODELS
- Linux/macOS:在~/.bashrc或~/.zshrc中添加export OLLAMA_MODELS=新路径
- 配置远程访问(可选):设置环境变量OLLAMA_HOST=0.0.0.0
- 重启Ollama服务使配置生效
验证安装成功
安装完成后,可以通过以下方式验证:
- 运行
ollama run llama3
测试基础功能 - 访问http://localhost:11434检查API服务
- 使用
ollama list
查看已安装模型
常见问题解决
- 下载速度慢:可尝试使用国内镜像源或代理
- 安装失败:检查系统是否满足要求(至少8GB内存)
- 模型无法加载:确认显卡驱动和CUDA版本(如需GPU加速)
二、Ollama支持安装到非C盘的方法
是的,Ollama可以安装在除C盘以外的其他盘符。以下是几种可行的安装方法:
方法一:安装时直接指定路径(推荐)
- 下载Ollama安装包后,在目标盘符(如D盘)创建安装目录(如D:\Ollama)
- 打开命令提示符,导航到安装包所在目录
- 执行命令:
OllamaSetup.exe /DIR=D:\Ollama
(将D:\Ollama替换为你想要的路径) - 安装程序会按照指定路径进行安装
6813
方法二:修改环境变量控制模型存储位置
- 安装完成后,设置系统环境变量:
- 变量名:OLLAMA_MODELS
- 变量值:D:\Ollama\Models(替换为你想要的路径)
- 重启Ollama服务或电脑使设置生效
- 后续下载的模型将自动存储到指定位置
三、Ollama命令
查看本地Ollama已安装模型的方法
使用ollama list命令
在终端或命令提示符中执行以下命令可查看所有已安装的模型列表:
ollama list
该命令会显示模型名称、大小、创建日期等基本信息,例如:
NAME SIZE MODIFIED
llama3:8b 4.7GB 2025-06-15
deepseek-r1:7b 6.2GB 2025-06-20
查看模型存储目录
Ollama默认将模型存储在以下位置:
- Windows:
C:\Users\<用户名>\.ollama\models
- Linux/macOS:
~/.ollama/models
使用API查询
通过Ollama的HTTP API也可以获取模型列表:
curl http://localhost:11434/api/tags
这会返回JSON格式的模型信息,适合编程处理。
图形界面工具查看
如果安装了OpenWebUI等可视化工具,可以在其模型管理页面直观地看到所有已安装的模型及其详细信息