【慢教程】Ollama4:ollama命令汇总

 ℹ️教程说明

Ollama 是一款轻量级本地大模型部署工具,使用广泛,且容易上手,适合作为AI技术的入门。

🧩教程各部分链接:

  • 第一课:ollama运行原理介绍及同类工具对比
    • ollama运行原理介绍及同类工具对比,与选择建议
  • 第二课:ollama安装(Windows)
    • 介绍了两种典型安装模式:普通安装方式和独立 CLI
  • 第三课:ollama安装大模型的方式汇总
    • ollama安装大模型的五种典型方式的详细汇总
  • 第四课:🐑 Ollama 命令汇总
    • 本文全面介绍了Ollama的相关命令的语法与示例,包括核心命令、模型管理命令、高级与系统命令
  • 第五课:桌面模型管理应用调用ollama大模型
    • 本文介绍了如何通过桌面应用调用本地Ollama大模型,对比了11款主流工具,并重点介绍了几个常用工具的具体安装和配置。
  • 第六课:Python 调用 Ollama 大模型方式汇总
    • 本文系统介绍了Python调用Ollama大模型的多种方式,包括官方SDK、REST API、OpenAI兼容接口、CLI调用及上层框架集成。

开始本课内容。。。


📚第四课:🐑 Ollama 命令汇总

Ollama 的命令行界面(CLI)设计简洁但功能强大,大概分为三类:

  • 核心命令
  • 模型管理命令
  • 高级与系统命令

另外,在命令之后,增加了环境变量配置、故障排除与技巧两个内容。


一、核心命令

这些是你最常用的命令,用于与模型交互。

1. ollama run - 运行模型

功能:拉取(如果不存在)并启动一个与模型的交互式聊天会话。这是最常用的命令。

语法:ollama run [选项] <模型名>:<标签> [提示词]

选项

  • 无特定选项,但支持通用全局选项(如 --verbose)。

示例

# 1. 进入与 llama3 模型的交互式对话
ollama run llama3# 2. 运行指定版本的模型 (例如 8B 参数的版本)
ollama run llama3:8b# 3. 非交互模式:直接运行一次提示词并退出
ollama run llama3 "请用中文写一首关于秋天的诗"

执行界面参考: 

说明:在交互模式中,输入 /bye/exit 或按下 Ctrl+D 退出。Ollama 会自动维护多轮对话的上下文。


2. ollama pull - 下载模型

功能:从模型库下载模型到本地,但不立即运行,同时具有重新下载模型的作用。

语法:ollama pull <模型名>:<标签>

示例

# 1. 下载默认标签的 llama3 模型(通常是最新或推荐版本)
ollama pull llama3# 2. 下载指定标签的模型 (例如 70B 参数的 4-bit 量化版本)
ollama pull llama3:70b-text-q4_0# 3. 下载其他模型,如 Mistral
ollama pull mistral# 4. 下载中文优化模型
ollama pull qwen2:7b

📜说明pull 是 run 命令的第一步。使用 run 时如果模型不存在会自动调用 pull

执行界面参考: 

📜说明pull 可以用于重新下载模型。


3. ollama list - 列出模型

功能:显示所有已下载到本地的模型及其详细信息。

语法:ollama list

执行界面参考: 


4. ollama rm - 删除模型

功能:从本地存储中删除一个模型,释放磁盘空间。

语法:ollama rm <模型名>:<标签>

示例

# 删除指定版本的模型
ollama rm mistral:7b# 删除默认标签的模型
ollama rm codellama

执行界面参考: 


注意:删除操作不可逆,请谨慎执行。


5. ollama cp - 复制模型

功能:创建一个已有模型的副本,并赋予新的名称。

语法:ollama cp <源模型名>:<标签> <目标模型名>

示例

# 将 llama3 复制为一个名为 my-llama 的新模型
ollama cp llama3 my-llama

用途:常用于创建模型的基础副本,以便后续使用 ollama create 进行自定义。


6. ollama stop - 停止特定模型

功能:/bye等,只是退出模型交互,ollama stop可以停止运行的指定模型。

语法:ollama stop [选项] <模型名称或ID>

示例

# 使用模型名称停止 (最常见)
ollama stop deepseek-r1:1.5b# 使用模型ID停止 (名称可能重复或过长时更精确)
ollama stop a42b25d8c10a

📜注:配合 ollama ps 命令,通过ollama ps获取运行的模型名称模型ID

执行界面参考: 


二、模型管理命令

这些命令用于创建和管理自定义模型配置。

7. ollama create - 创建模型

功能:基于一个 Modelfile 创建自定义模型。

语法:ollama create <模型名> -f <Modelfile路径>

示例

  • 1)首先创建一个 Modelfile 文件:

# Modelfile 内容示例
FROM llama3
# 设置系统提示词,定义模型角色
PARAMETER temperature 0.8
PARAMETER num_ctx 4096
SYSTEM """
你是一个乐于助人的AI助手,请用中文回答所有问题。
"""

 📝 Modelfile 核心指令详解

Modelfile 是一个文本文件,它通过一系列的指令来定义模型的行为。以下是其中最常用和最关键的指令:

指令是否必需描述与用途示例
FROM指定基础模型或GGUF模型文件路径FROM llama3
FROM ./qwen2-7b-q4_k_m.gguf
PARAMETER设置模型推理参数,控制生成效果PARAMETER temperature 0.7
PARAMETER num_ctx 4096
SYSTEM定义系统提示词,设置模型角色、行为准则或上下文SYSTEM "你是一个乐于助人的AI助手,请用中文回答所有问题。"
TEMPLATE定义模型使用的对话模板,适用于特定模型格式TEMPLATE """{{ if .System }}<|im_start|>system\n{{ .System }}<|im_end|>\n{{ end }}"""
PARAMETER stop设置停止词,告诉模型生成何时结束PARAMETER stop "<|im_end|>"
PARAMETER st

下面是这些指令之间主要关系和流程的示意图:

🔧 关键指令说明

  • FROM指令:这是 Modelfile 中唯一必须的指令。它有两个主要用途:

    • 指定基础模型:例如 FROM llama3,这意味着你的自定义模型将基于官方的 llama3 模型进行构建。你需要确保已经通过 ollama pull llama3 下载了该基础模型。

    • 引用本地GGUF模型文件:例如 FROM ./vicuna-33b.Q4_0.gguf 或 FROM ./codeqwen-1_5-7b-chat-q8_0.gguf,或者绝对路径 FROM E:\ollama\models\OuteTTS-0.2-500M-FP16.gguf。这允许你直接使用从 Hugging Face 或其他平台下载的 GGUF 格式模型文件。

  • PARAMETER指令:常用的参数包括:

    • temperature:控制生成文本的随机性。值越高(如 0.8),输出越随机、创造性越强;值越低(如 0.2),输出越确定、保守。

    • num_ctx:设置模型上下文窗口的大小(token 数),例如 4096

    • top_p:一种采样策略,通常与 temperature 一起使用。

    • repeat_penalty:惩罚重复的 token,有助于减少生成内容中的重复。

  • SYSTEM指令:你可以在这里定义模型的角色、行为准则或知识背景。例如,你可以设置 SYSTEM "你是一位专业的软件开发工程师,擅长Python和Go语言。",这样模型就会在这个语境下回答你的问题。

  • TEMPLATE指令:这个指令通常需要参考模型本身的文档来正确设置。例如,很多 Chat 模型(如 Llama 3)需要特定的模板格式才能正常工作。

  • PARAMETER stop指令:此指令用于定义停止词(stop words),当模型在生成过程中遇到这些词时,便会停止继续生成。这对于控制模型输出的长度和格式非常有用。

🔢复杂Modelfile 文件示例:

# 从本地GGUF文件创建(假设文件在当前目录)
FROM ./llama3.2-1b-instruct-q4_k_m.gguf
# 或者从已拉取的官方模型创建
# FROM llama3.2:1b-instruct# 设置系统提示词,定义模型角色
SYSTEM """
你是一个幽默的、乐于助人的AI助手,名字叫"小智"。
你总是以有趣的方式和用户交流,并且在回答技术问题时非常准确。
请始终使用中文与用户对话。
"""# 设置模型参数
PARAMETER temperature 0.8  # 创造性较高
PARAMETER num_ctx 4096     # 上下文窗口大小# 定义模板和停止词(以Llama 3为例)
TEMPLATE """
<|begin_of_text|><|start_header_id|>system<|end_header_id|>{{ .System }}<|eot_id|><|start_header_id|>user<|end_header_id|>{{ .Prompt }}<|eot_id|><|start_header_id|>assistant<|end_header_id|>{{ .Response }}<|eot_id|>
"""
PARAMETER stop "<|eot_id|>"
PARAMETER stop "<|end_header_id|>"

📜Modelfile文档参考: https://ollama.cadn.net.cn/modelfile.html

  • 2)然后创建模型:

# 从当前目录的 Modelfile 创建模型
ollama create my-chinese-assistant -f ./Modelfile# 创建后即可像普通模型一样运行
ollama run my-chinese-assistant

执行示例及界面参考: 

  • 在https://huggingface.co/OuteAI/OuteTTS-0.2-500M-GGUF/tree/main下载OuteAI/OuteTTS-0.2-500M-GGUF的文件“OuteTTS-0.2-500M-FP16.gguf”,并放在E:\ollama\models下
  • 并在此目录下创建配置文件:  
  • 执行命令:
ollama create OuteTTS-0.2-500M-FP16 -f ./Modelfile
ollama run OuteTTS-0.2-500M-FP16

执行界面如下:


8. ollama show - 显示模型信息

功能:显示模型的详细信息,包括其 Modelfile 内容。

语法:ollama show <模型名> [选项]

选项

  • --modelfile:显示模型的 Modelfile 内容

  • --parameters:显示模型参数

  • --system:显示系统提示词

  • --template:显示模板

  • --license:显示许可证信息

示例

# 显示模型的完整信息
ollama show my-chinese-assistant# 仅显示 Modelfile 内容
ollama show my-chinese-assistant --modelfile# 显示模型参数配置
ollama show my-chinese-assistant --parameters

执行界面参考: 



三、高级与系统命令

9. ollama serve - 启动API服务

功能:启动 Ollama API 服务器,使模型可通过 REST API 访问。

语法:ollama serve

说明

  • 通常作为后台服务运行,而不是手动启动

  • 默认监听在 127.0.0.1:11434

  • 可使用环境变量 OLLAMA_HOST 更改监听地址

执行界面参考: 

⚠️注意:如果ollama桌面程序已经运行,则ollama serve随之启动,再执行ollama serve命令,会提示冲突,如下界面所示,可以退出ollama桌面程序后,再运行ollama serve,这样仅供程序接口调用。


10. ollama ps - 显示运行中的模型

功能:显示当前正在运行的模型及其资源使用情况。

语法:ollama ps

执行界面参考: 


11. ollama help - 获取帮助

功能:显示帮助信息,可查看所有命令或特定命令的用法。

语法

# 显示所有命令
ollama help# 显示特定命令的帮助
ollama help run
ollama help create

执行界面参考: 


12. 关闭 ollama

没有直接的关闭命令,通过快捷键 Win+X 打开任务管理器,点击“ 启动”,在进程中结束 Ollama 的任务,如果需要可以禁用 Ollama,不再随机启动。


四、环境变量配置

通过环境变量可以配置 Ollama 的各种行为:

环境变量功能示例值
OLLAMA_HOST设置API服务监听地址0.0.0.0:11434 (允许远程访问)
OLLAMA_MODELS设置模型存储路径/data/ollama/models
OLLAMA_KEEP_ALIVE控制模型在内存中的保留时间5m2h-1 (始终保留)
OLLAMA_DEBUG启用调试日志1 (启用)

使用示例

# 临时设置环境变量(Linux/macOS)
export OLLAMA_HOST=0.0.0.0:11434
export OLLAMA_KEEP_ALIVE=2h
ollama serve# Windows (命令行)
set OLLAMA_HOST=0.0.0.0:11434
ollama serve# 或者创建配置文件 ~/.ollama/config.json
{"host": "0.0.0.0:11434","keep_alive": "2h"
}

五、故障排除与技巧

1. 查看详细日志

# 使用 verbose 模式查看详细输出
ollama run llama3 --verbose# 在Linux上查看服务日志
journalctl -u ollama -f

执行界面参考: 


2. 清理磁盘空间(Linux/macOS)

# 删除不再使用的模型
ollama list
ollama rm old-model-name# 清理临时文件(Linux/macOS)
rm -rf ~/.ollama/models/manifests/*

✍️备注:Windows下,删除模型,我观察对应的模型文件也删除了,就不用额外清理了,大家可以通过删除模型前后,模型物理文件列表的变化,进行验证。

3. 模型文件默认位置

  • Linux/macOS~/.ollama/models/

  • WindowsC:\Users\<用户名>\.ollama\models

  • 模型文件的实际位置

Windows下,在cmd,通过命令

set OLLAMA_MODELS

查看有没有设置该变量,如果返回具体位置,则模型在此位置,否则在默认位置。

执行界面参考: 


六、命令总结

按照不同的使用思路,在梳理一下各命令。

1. 模型管理命令

命令用法示例
创建模型ollama create <model_name> -f Modelfileollama create my-model -f ./Modelfile(Modelfile 定义模型架构、参数等)
拉取模型ollama pull <model_name[:version]>ollama pull llama3:7b(下载指定版本)
列出模型ollama list显示本地模型名称、ID、大小、修改时间
查看详情ollama show <model_name>输出模型版本、参数、描述等
复制模型ollama cp <源模型> <新模型>ollama cp llama3 my-llama3
删除模型ollama rm <model_name>ollama rm llama3:7b(释放磁盘空间)

2. 服务与运行命令

命令用法示例
启动服务ollama serve默认端口 11434,支持 --port 11435 自定义
停止服务ollama stop 或 pkill -f "ollama serve"强制终止可用 systemctl stop ollama(Linux)
运行模型ollama run <model_name> [参数]ollama run llama3 --temp 0.7 --max-tokens 500(调整温度、输出长度)
查看运行模型ollama ps显示正在运行的模型及其状态
停止模型ollama stop <model_name> 或 Ctrl+D(交互界面)优雅终止指定模型

3. 会话与交互命令

  • 交互命令
    • /load <model>:加载模型或会话。
    • /save <model>:保存当前会话状态。
    • /clear:清除上下文历史。
    • /bye:退出会话。
    • /set system "提示词":设置系统提示(如角色、格式)。
    • /set format json:强制输出 JSON 格式。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/pingmian/96039.shtml
繁体地址,请注明出处:http://hk.pswp.cn/pingmian/96039.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JAVA Predicate

简单来说&#xff0c;当我明确知道此次判断的逻辑时就可以直接使用if&#xff0c;但是我这次的判断逻辑可能会随着某个参数变化的时候使用Predicate比如当我想要判断某长段文字中是否包含list<String> 中的元素&#xff0c;并且包含的元素个数大于 list<String>最后…

什么是PFC控制器

一句话概括PFC控制器是一种智能芯片&#xff0c;它通过控制电路中的电流波形&#xff0c;使其与电压波形保持一致&#xff0c;从而减少电力浪费&#xff0c;提高电能的利用效率。PFC控制器IC的核心作用就是控制一颗功率MOSFET的开关&#xff0c;通过特定的电路拓扑&#xff08;…

【P03_AI大模型测试之_定制化 AI 应用程序开发】

git clone https://gitee.com/winner21/aigc-test.git 类似于joycoder的&#xff0c;可以安装在vscode上的通义灵码&#xff1a;https://lingma.aliyun.com/ 1、VSCODE上配置通义灵码 2、创建前后端文件&#xff0c;并引用AI编码代码 3、指定文件&#xff0c;利用AI进行代码优…

人工智能机器学习——决策树、异常检测、主成分分析(PCA)

一、决策树(Decision Tree) 决策树&#xff1a;一种对实例进行分类的树形结构&#xff0c;通过多层判断区分目标所属类别 本质&#xff1a;通过多层判断&#xff0c;从训练数据集中归纳出一组分类规则 优点&#xff1a; 计算量小&#xff0c;运算速度快易于理解&#xff0c;可…

服务器文件同步用哪个工具?介绍一种安全高效的文件同步方案

服务器作为企业核心数据和应用的载体&#xff0c;服务器文件同步已成为IT运维、数据备份、业务协同中不可或缺的一环。然而&#xff0c;面对多样的场景和严苛的需求&#xff0c;选择一个既高效又安全的服务器文件同步工具并非易事。本文将首先探讨服务器文件同步的常见场景、需…

LeetCode 004. 寻找两个正序数组的中位数 - 二分切分与分治详解

一、文章标题 LeetCode 004. 寻找两个正序数组的中位数 - 二分切分与分治详解 二、文章内容 1. 题目概述 题目描述&#xff1a;给定两个已按非降序排列的整数数组 nums1、nums2&#xff0c;设它们长度分别为 m 和 n&#xff0c;要求返回这两个数组合并后有序序列的中位数。…

预闪为什么可以用来防红眼?

打闪拍照红眼产生的原因 预闪可以用来防红眼&#xff0c;是基于人眼的生理特性和红眼现象的产生原理。在光线较暗时&#xff0c;人眼的瞳孔会放大。当使用闪光灯拍摄时&#xff0c;如果直接进行高强度闪光&#xff0c;由于瞳孔来不及缩小&#xff0c;闪光灯的光线会反射在眼球血…

Python程序使用了Ffmpeg,结束程序后,文件夹中仍然生成音频、视频文件

FFmpeg是一套可以用来记录、转换数字音频、视频&#xff0c;并能将其转化为流的开源计算机程序。采用LGPL或GPL许可证。它提供了录制、转换以及流化音视频的完整解决方案。它包含了非常先进的音频/视频编解码库libavcodec&#xff0c;为了保证高可移植性和编解码质量&#xff0…

模块与包的导入

077-模块-06-模块搜索顺序_哔哩哔哩_bilibili 080-包-01-包的概念以及建立包的方式_哔哩哔哩_bilibili 088-文件操作-01-文件操作套路以及Python中的对应函数和方法_哔哩哔哩_bilibili 注&#xff1a; 1.import math和 from math import *区别 2. 模块&#xff08;Module…

Docker Compose 多种安装方式 (Alibaba Cloud Linux 3 环境)

Docker Compose 多种安装方式&#xff0c;适用于不同场景&#xff08;如依赖系统包管理器、使用 Python 工具链、集成 Docker 插件等&#xff09;。以下是常见的方案&#xff0c;尤其针对 Alibaba Cloud Linux 3 环境适配&#xff1a; 一、二进制包安装&#xff08;推荐&#…

Dubbo3序列化安全机制导致的一次生产故障

前言 记录一次 Dubbo 线上故障排查和原因分析。 线上 Dubbo 消费者启动有错误日志如下&#xff0c;但是不影响服务启动。 java.lang.TypeNotPresentException: Type org.example.model.ThirdParam not present ... Caused by: java.lang.ClassNotFoundException: org.example.m…

centos7 docker离线安装

介绍 本文主要讲了如何在完全没网的情况下安装docker&#xff08;适合于高网络安全要求的企业&#xff09; 本文适用的centos版本&#xff1a; [root0001 temp]# cat /etc/redhat-release CentOS Linux release 7.6.1810 (Core) 采用docker in docker下载依赖 实际试验后&…

东京本社招聘 | 财务负责人 多个日本IT岗位(Java/C++/Python/AWS 等),IT营业同步招募

大家好&#xff0c;本期为大家带来我司在东京GSD本社及其他会社千叶地区的招聘岗位。 涵盖 财务负责人、Java开发工程师、数据中心维护工程师、项目经理、IT营业 等多个职位。 欢迎有志之士加入&#xff01;&#x1f539; 财务负责人&#xff08;東京本社&#xff09;工作内容日…

四数之和

目录 一&#xff1a;题目链接 二&#xff1a;题目思路 三&#xff1a;代码实现 一&#xff1a;题目链接 理解题目需要注意&#xff0c;如果两个四元组元素一一对应&#xff0c;则认为两个四元组重复&#xff0c;选择其中一个四元组即可。比如 [ 0 , 1 , 0 , 2] 和 [ 1 , …

【序列晋升】29 Spring Cloud Task 微服务架构下的轻量级任务调度框架

Spring Cloud Task作为微服务架构中的轻量级任务调度框架&#xff0c;为开发人员提供了一种构建短生命周期微服务任务的便捷方式。它允许开发者快速创建、执行和管理一次性任务或短期批处理作业&#xff0c;任务执行完成后自动关闭以释放系统资源&#xff0c;避免了传统长期运行…

【1分钟速通】 HTML快速入门

HTML&#xff08;HyperText Markup Language&#xff0c;超文本标记语言&#xff09; 是构建网页的基础语言。它通过 标签&#xff08;Tag&#xff09; 来描述网页的结构和内容&#xff0c;常与 CSS&#xff08;负责样式 – <style></style>&#xff09;和 JavaScr…

【GeoServer】WMS GetFeatureInfo URL 逐个参数解释

我来把你构造的这个 WMS GetFeatureInfo URL 逐个参数解释一下&#xff0c;方便你理解&#xff1a;http://127.0.0.1:8090/geoserver/xxxx/wms? SERVICEWMS& VERSION1.1.1& REQUESTGetFeatureInfo& QUERY_LAYERSloess:yourLayer& LAYERSloess:yourLayer& …

OBS直播教程:点歌直播间怎么弄?直播点歌用什么软件?

OBS直播教程&#xff1a;点歌直播间怎么弄&#xff1f;直播点歌用什么软件&#xff1f; 第一步&#xff1a;安装OBS直播软件&#xff0c;如果你电脑已经安装了OBS&#xff0c;请直接看第二步 OBS直播软件下载地址①&#xff1a; https://d.obscj.com/obs-Studio-29.1.3-Full-…

【数据库】Redis详解:内存数据库与缓存之王

什么是Redis&#xff1f; Redis&#xff08;Remote Dictionary Server&#xff09;是一个开源的、基于内存的数据结构存储系统&#xff0c;可以用作数据库、缓存和消息代理。它支持多种数据结构&#xff0c;如字符串、哈希、列表、集合、有序集合等&#xff0c;具有极高的性能和…

【iOS】 单例模式

1. 认识单例模式首先让我们先看下关于单例模式的定义&#xff08;来自于《设计模式》(Addison-Wesley,1994)&#xff09;一个类有且仅有一个实例&#xff0c;并且自行实例化向整个系统提供。如果说每一个人都是一个类&#xff0c;那么从他出生开始&#xff0c;他就是生活中的唯…