大模型微调理论、实战:LLaMA-Factory、Unsloth

概述

微调,Fine-Tuning,简称FT,可理解为对LLM的定制,目的是增强专业领域知识,并优化特定任务的性能。通过在特定数据集上微调一个预训练模型,可实现:

  • 更新知识:引入新的领域专属信息;
  • 定制行为:调整模型的语气、个性或响应风格;
  • 优化任务:提升针对特定任务场景的准确性和相关性;
  • 降低成本:避免从头训练模型。

可将微调后的模型视为一个专门优化的Agent,更高效地执行特定任务。

优势:通过修改模型参数,永久地提高模型能力。

劣势:若处理不当,很可能造成模型原始能力的灾难性遗忘,即导致模型原始能力丢失,对于复杂模型尤其如此。因此需小心谨慎地设计模型微调数据集和微调训练流程,并经过反复多次训练验证,得到最佳模型。

应用场景:

  • 风格微调:适用于客服系统、虚拟助理等场景,微调得到不同语气、情感表达、礼貌程度、回答方式、对话策略等。
  • 知识灌注:微调可将外部知识或领域特定的信息快速集成到已有的预训练模型中。
  • 多轮推理:微调能更高效地理解长文本、推理隐含信息,或从数据中提取逻辑关系。
  • 能力提升:在MAS系统或工具调用(Function Call,FC)场景中,微调能显著提升Agent能力,使得模型能够学会更精准的功能调用策略、参数解析和操作指令,进而有效地与其他系统进行交互、调用外部API或执行特定任务。

策略

Supervised FT,SFT,有监督微调,指使用带标签的目标任务数据集对预训练模型进行训练,通过模型预测结果与真实标签的误差反向传播,更新模型参数的过程。

核心特点:依赖高质量标注数据;训练过程有明确监督信号,模型收敛方向更明确。

全量微调(Full FT,FFT)和参数高效微调(Parameter-Efficient FT,PEFT)

维度FFTPEFT
定义对预训练模型所有参数进行更新,无参数冻结仅更新模型一小部分参数,通常<1%,其余参数冻结
参数更新范围100%模型参数0.1%~1%参数,依方法不同略有差异
计算/存储成本极高,需支持全量参数反向传播,千亿级模型需多卡集群极低,仅更新小部分参数,单卡GPU即可支持
数据依赖需大量标注数据,通常数万~十万条,否则易过拟合数据需求低,数千~万条即可,抗过拟合能力更强
性能上限理论性能最高,可充分适配任务性能接近全量微调,多数场景下差距<5%,部分任务可持平
适用场景数据量充足、计算资源雄厚资源有限、数据量少、多任务快速适配

FFT优势:无参数冻结,模型可充分学习任务特性,在数据量充足时能达到最优性能。

劣势

  • 成本极高:以千亿参数模型为例,全量微调需数十张H100,单日训练成本可达数万元;
  • 数据需求高:若标注数据不足,易导致过拟合,模型记住训练数据,泛化能力差;
  • 存储压力大:训练过程中需保存大量中间参数(如梯度、优化器状态),对存储容量要求极高。

主流PEFT方法:

  • LoRA:Low-Rank Adaptation:低秩适应。一个超大话题,需另起一篇。
  • Instruction Tuning:指令微调
  • Prompt Tuning:提示词微调
  • Prefix Tuning:前缀微调
  • Adapter Tuning:适配器微调
数据量/资源推荐方法适用场景
数据量充足>10万条、计算资源雄厚FFT大厂核心业务,如电商平台情感分析、机器翻译
数据量中等1~万条、资源有限LoRA中小企业领域适配,如医疗对话、法律文档问答
数据量少<1万条、资源有限其他小样本任务,如特定领域NER、少量标注分类任务

LoRA凭借低成本+高性能的平衡,已成为当前LLM微调的主流选择。

Prompt Tuning

思想:不改变模型原始权重,仅通过优化输入提示词本身来引导模型输出期望结果;提示词可以是离散的(人工设计模板)或连续的(可训练的向量,如P-Tuning)。

微调对象:只微调与输入提示相关的少量参数(如Prompt Embedding),不改变语言模型主体参数。

典型方法:P-Tuning、P-Tuning v2。

Instruction Tuning

思想:通过在大量指令-输入-输出对数据上微调整个模型(或部分参数),让模型学会理解和执行各种自然语言指令。

微调对象:模型参数本身(全参数微调,或部分参数微调)。

特点:

  • 目标是增强模型对自然语言指令的泛化能力,使其能直接按照用户指令执行任务。
  • 微调后模型对提示工程依赖较低,输出更自然、一致。
  • 需大量标注数据,计算成本相对较高。

Prefix Tuning

思想:与Prompt Tuning类似,在输入序列前添加一段可训练的连续向量(即前缀Token,会参与模型的注意力计算),仅优化这些前缀参数,其余模型参数冻结。

微调对象:仅前缀参数(通常占模型总参数的0.1%)。

特点:

  • 适用于生成类任务;
  • 前缀长度可调,长度越长效果通常越好,但推理速度几乎不受影响。

Adapter Tuning

论文,
在这里插入图片描述

思想:在预训练模型的每一层(或部分层)插入小型适配器模块(通常由两层MLP构成,如BottleNeck结构:降维→激活→升维),仅训练这些适配器参数,模型主体冻结。

微调对象:适配器模块参数(通常占模型总参数的3~5%)。

特点:

  • 几乎不影响原模型结构,推理时只需额外计算适配器部分;
  • 适配器模块可针对不同任务分别训练,灵活性强;
  • 参数量比Prefix Tuning大,但通常效果更稳定。

其他微调方法对比

方法微调对象是否改模型权重参数占比适用场景优点缺点
Prompt Tuning输入提示(连续/离散)极低资源受限、快速适配高效、极低计算开销依赖提示工程,效果有限
Instruction Tuning模型参数(全/部分)较高通用指令执行、多任务输出自然、泛化强需大量标注数据、开销大
Prefix Tuning输入前缀(连续向量)极低生成任务参数极省、推理快仅适合生成类任务
Adapter Tuning插入适配器模块理解+生成任务灵活、稳定、可插拔参数略多,训练略复杂

对比RAG

参考RAG概述。

  • 针对特定任务的专业性
    微调让模型深入理解某个特定领域或任务,使其能精准处理结构化、重复性高或具有复杂背景的查询,这是RAG无法独立完成的
  • 推理速度更快
    微调后的模型直接生成答案,无需额外的检索步骤,适用于对响应速度要求极高的场景。
  • 个性化行为与风格
    微调可精准控制模型的表达方式,确保其符合品牌风格、行业规范或特定约束。
  • 为模型添加新知识
    微调的核心目标之一,让模型掌握全新的概念或知识,只要数据集中包含相关信息。

RAG+微调:结合两者,以发挥最大优势:

  • RAG让系统具备动态获取最新外部知识的能力;
  • 微调让模型掌握核心专业知识,即使没有外部检索也能稳定发挥作用;还能帮助模型更好地理解和整合检索回来的信息;
  • 任务专业性:微调擅长特定任务,RAG提供最新外部知识,两者互补;
  • 适应性:当检索失败时,微调后的模型依然能维持高水平的性能,RAG让系统无需频繁重新训练也能保持知识更新;
  • 效率:微调建立稳定的基础,RAG则减少对大规模训练的需求,仅在必要时提供额外信息。

实战

一些建议:

  • 微调没有单一的最佳方式,只有适用于不同场景的最佳实践;
  • 使用Unsloth等易入门的开源框架;
  • 从4比特QLoRA量化入手;
  • 使用免费云服务器资源如Google Colab和Kaggle Notebook。

数据集

微调流程中,数据集质量直接决定微调效果,尤其是当模型需具备复杂功能(如FC、混合推理)或应用于特定领域任务时。

模型通过特殊字符标记识别输入类型、系统提示和输出边界,数据集需遵循模型的格式规范。以Qwen3为例:

  • <|im_start|>:标记文本开始,后跟角色,如user/assistant/system;
  • <|im_end|>:标记文本结束。

标记可在模型的tokenizer_config.json文件中查看完整定义。

常见微调数据集格式

  • 基础问答:Alpaca风格,适用于简单指令微调,包含instruction、input和output三个核心字段。示例:
{"instruction": "识别并解释给定的科学理论","input": "细胞理论","output": "细胞理论是生物科学的基础理论,认为所有生命体由细胞构成,细胞是生物的基本结构和功能单位。"
}

微调时,脚本会自动将其转换为Qwen3等模型兼容的标记格式:

<|im_start|>user
识别并解释给定的科学理论:细胞理论<|im_end|>
<|im_start|>assistant
细胞理论是生物科学的基础理论...<|im_end|>
  • 带系统提示和FC:若需提升模型的FC能力,数据集需包含系统提示、工具定义和调用示例。系统提示:明确FC规则;工具定义:通过<tools>描述函数参数。对话示例:
<|im_start|>system
你是天气助手,查询天气时需调用get_weather函数。
<tools>[{"name":"get_weather","parameters":{"location":"城市名称"}}]</tools><|im_end|>
<|im_start|>user
北京天气如何?<|im_end|>
<|im_start|>assistant
<tool_call>{"name":"get_weather","arguments":{"location":"北京"}}</tool_call><|im_end|>

高效微调仅能优化现有FC能力,无法让模型从无到有学会该功能。

  • 带思考过程:为提升模型推理能力,数据集需包含中间思考步骤,用特殊标记分隔思考过程与最终输出。例如:
<|im_start|>system
你是数学助手,需展示解题步骤。<|im_end|>
<|im_start|>user
计算3+5×2的结果。<|im_end|>
<|im_start|>assistant
<think>用户问的是3加5乘2,先算乘法再算加法,5乘2等于10,再加3就是13。/think>3+5×2=3+10=13<|im_end|>

作为示例和思路,为混合推理模型构造微调数据集,采用多数据集拼接策略,核心步骤:

  • 选择基础数据集
    • 普通对话数据:如FineTome-100k(含10万条多轮对话,ShareGPT风格),用于保留模型的自然交互能力。
    • 推理类数据:如OpenMathReasoning(含54万道数学题及详细解题步骤),用于强化逻辑推理能力。
  • 数据集配比调整:需根据微调目标平衡不同类型数据的比例:
    • 若侧重数学推理:可按7:3比例混合;
    • 若需均衡能力:可按5:5比例混合,避免模型过度偏向单一任务。
  • 格式统一与清洗:确保所有数据转换为Qwen3兼容的标记格式;过滤重复样本、错误标注和低质量内容,避免模型学习噪声数据。

数据集下载渠道:HF、ModelScope(魔搭社区,简称MS)

框架

LLaMA-Factory

57.5K Star,7K Fork。参考LLaMA-Factory。

Unsloth

参考Unsloth实战。45.1K Star,3.6K Fork。

ColossalAI

GitHub,41.1K Star,4.5K Fork。一个高效的分布式人工智能训练系统,旨在最大化提升AI训练效率,最小化训练成本。作为DL框架内核,提供自动超高维并行、大规模优化库等前沿技术。

优势表现:与英伟达Megatron-LM相比,仅需一半数量的GPU即可完成GPT-3训练,半小时内预训练ViT-Base/32,并在两天内训练完15亿参数的GPT模型。提供多种并行技术,如数据并行、流水线并行和张量并行,以加速模型训练。

强化学习训练,则推荐veRL和OpenRLHF等框架。

MS-Swift

MS社区推出,GitHub,9.7K Star,851 Fork。

XTuner

上海AI实验室的InternLM团队推出的开源(4.7K Star,354 Fork)轻量化LLM微调工具库,支持LLM多模态图文模型的预训练及轻量级微调。

特点:

  • 高效:仅需8GB显存即可微调7B模型,支持多节点跨设备微调70B+ LLM。通过自动分发FlashAttention、Triton kernels等高性能算子加速训练,兼容DeepSpeed,能轻松应用ZeRO优化策略提升训练效率;
  • 灵活:兼容InternLM等多种主流LLMs和LLaVA多模态图文模型,支持预训练与微调。数据管道设计灵活,兼容任意数据格式,支持QLoRA、LoRA及全量参数微调等多种算法;
  • 全能:支持增量预训练、指令微调与Agent微调,提供丰富的开源对话模板便于与模型交互。训练所得模型可无缝接入部署工具库LMDeploy、评测工具库OpenCompass及VLMEvalKit,实现从训练到部署的全流程支持。

安装

# 环境准备
conda create --name xtuner-env python=3.10 -y
conda activate xtuner-env
# 源码安装
git clone https://github.com/InternLM/xtuner.git
cd xtuner
pip install -e '.[deepspeed]'
# 验证
xtuner list-cfg

XTuner支持增量预训练、单轮对话、多轮对话三种数据集格式:

  • 增量预训练数据集用于提升模型在特定领域或任务的能力;
  • 单轮对话和多轮对话数据集则经常用于指令微调阶段,以提升模型回复特定指令的能力。

MindSpeed LLM

GitHub。

对比选型

维度LLaMA-FactoryUnslothMS-SwiftMindSpeed LLM
定位微调,主打模块化与多场景适配微调+加速,聚焦性能与效率优化,显存优化型训练加速引擎多模态全栈工具链昇腾硬件深度优化框架
社区生态中文社区活跃,提供Web UI工具HF生态兼容,开发者论坛活跃MS框架,整合天池/魔搭社区资源华为昇腾社区双轨支持,兼容MindSpore/PyTorch双后端
优势模块化设计、多硬件自适应、量化技术高速微调、低内存占用、主流模型兼容、显存效率极致优化多模态DPO训练,推理吞吐量提升20倍昇腾910B训练速度超A100 2.3倍,支持千亿参数模型分布式训练
局限全参微调速度较慢,存在历史安全漏洞社区较新文档不完善,依赖Triton内核经验生态依赖性强,脱离MS扩展性受限硬件适配单一,非昇腾环境支持有限
硬件支持NVIDIA/AMD/Ascend GPU、Mac M系列芯片主要支持NVIDIA GPUNVIDIA GPU 为主,部分支持Ascend NPU(算子兼容问题)昇腾910B/910C NPU,支持训推共卡
模型支持支持主流支持主流,兼容HuggingFace格式支持主流,500+纯文本模型、200+多模态模型支持主流,新增MindSpore后端
训练效率全参微调速度较Unsloth慢30%,支持DeepSpeed分布式40GB可处理70B模型,GRPO流程优化多卡训练效率提升40%(DDP+FSDP),集成vLLM加速千亿参数模型分布式训练效率领先,GRPO训练速度提升显著
显存优化动态量化(2-8bit)+梯度检查点,8B模型微调显存10GB动态4bit量化+Triton内核重写,显存占用减少80%PEFT技术+混合精度训练,显存占用降低70%算子融合+内存复用,70B模型训练显存32GB(GRPO优化后)
微调策略全参微调、LoRA、QLoRA,支持DPO、SimPO对齐LoRA、QLoRA、动态量化训练,GRPO强化学习LoRA+、GaLore、Q-GaLore,多模态DPO训练QLoRA、DPO、PPO,支持训推共卡模式
易用性低代码Web UI,数据标注-训练-部署一键式操作API简洁,5分钟上手,提供Colab一键启动脚本依赖MS数据工具,多模态任务配置模板化需熟悉Ascend-CANN工具链,昇腾专用SDK
典型场景多模态内容生成、行业LLM私有化部署资源受限环境快速迭代、学术研究原型开发多模态对话系统、长文本生成(16K Token)昇腾集群部署的千亿参数模型训练、金融风控/政务合规场景

其他框架

框架优势适用场景
Hugging Face高度兼容,易用,文档丰富一般NLP任务,模型选择丰富
LoRA显存节省,减少微调计算量显存有限的设备,微调大规模模型
PEFT高效微调,低计算开销资源有限的环境,适合大规模预测级模型的微调
DeepSpeed大规模分布式训练,显存优化超大规模训练,多卡分布式训练
AdapterHub低资源消耗,快速微调多任务微调,资源有限的环境
Alpaca-LoRA生成任务优化,LoRA技术结合对话生成、文本生成
FastChat对话系统微调,快速集成对话生成任务,尤其是对ChatGPT等模型微调
FairScale大规模分布式训练优化,自动化优化多卡分布式训练,大规模微调

资料

Notebook

Unsloth AI开源Notebook,涵盖:

  • BERT、TTS、视觉等多模态;
  • GRPO、DPO、SFT、CPT等方法论;
  • 数据准备、评估、保存等微调阶段;
  • Llama、Gemma、Phi等模型;
  • 其他:工具调用、分类、合成数据;

参考

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:http://www.pswp.cn/news/921633.shtml
繁体地址,请注明出处:http://hk.pswp.cn/news/921633.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【LCA 树上倍增】P9245 [蓝桥杯 2023 省 B] 景区导游|普及+

本文涉及知识点 树上倍增 P9245 [蓝桥杯 2023 省 B] 景区导游 题目描述 某景区一共有 NNN 个景点&#xff0c;编号 111 到 NNN。景点之间共有 N−1N-1N−1 条双向的摆渡车线路相连&#xff0c;形成一棵树状结构。在景点之间往返只能通过这些摆渡车进行&#xff0c;需要花费…

基于Python+Streamlit的旅游数据分析与预测系统:从数据可视化到机器学习预测的完整实现

&#x1f3de;️ 基于PythonStreamlit的旅游数据分析与预测系统&#xff1a;从数据可视化到机器学习预测的完整实现 &#x1f4dd; 前言 在大数据时代&#xff0c;旅游行业的数据分析变得越来越重要。如何从海量的旅游数据中挖掘有价值的信息&#xff0c;并进行准确的销量预测&…

飞算JavaAI全链路实战:智能构建高可用电商系统核心架构

飞算JavaAI全链路实战&#xff1a;智能构建高可用电商系统核心架构 前言&#xff1a;AI编程新时代的电商系统开发范式变革 在当今数字经济时代&#xff0c;电商系统作为企业数字化转型的核心载体&#xff0c;其复杂度和技术要求与日俱增。一个完整的电商系统不仅需要处理商品、…

论文精读(五):面向链接预测的知识图谱表示学习方法综述

笔者链接&#xff1a;扑克中的黑桃A 专栏链接&#xff1a;论文精读 本文关键词&#xff1a;知识图谱; 表示学习; 链接预测; 多元关系; 超关系 引 诸位技术同仁&#xff1a; 本系列将系统精读的方式&#xff0c;深入剖析计算机科学顶级期刊/会议论文&#xff0c;聚焦前沿突破…

Roo Code之自定义指令(Custom Instructions),规则(Rules)

在Roo Code 中&#xff0c;Custom Instructions 可以通过Instructions 设定和Rules 规则文件实现。什么是Custom Instructions&#xff1f; 自定义指令(Custom Instructions)定义了超出Roo基本角色定义范围的具体行为、偏好和约束。示例包括编码风格、文档标准、测试要求和工作…

9/8我是ai大师

一、变量定义部分&#xff08;理解程序的 "记忆"&#xff09;c运行/* USER CODE BEGIN PV */ static uint8_t last_button_state 1; // 初始为高电平&#xff08;未按下&#xff09; static uint8_t device_mode 0; // 设备模式&#xff1a;0LD1, 1LD3, 2蜂鸣器, 3…

前沿重器[74] | 淘宝RecGPT:大模型推荐框架,打破信息茧房

前沿重器栏目主要给大家分享各种大厂、顶会的论文和分享&#xff0c;从中抽取关键精华的部分和大家分享&#xff0c;和大家一起把握前沿技术。具体介绍&#xff1a;仓颉专项&#xff1a;飞机大炮我都会&#xff0c;利器心法我还有。&#xff08;算起来&#xff0c;专项启动已经…

jenkins加docker 部署项目

jenkins加docker 部署springboot项目 1项目结构Dockerfile 内容 FROM openjdk:8-jdk-alpine ARG JAR_FILEtarget/*.jar COPY ${JAR_FILE} app.jar ENTRYPOINT ["java","-jar","/app.jar","--server.port9090"]在A服务器上启动jenkins …

提示词工程(Prompt Engineering)的崛起——为什么“会写Prompt”成了新技能?

&#x1f380;【开场 猫猫狐狐的对话】&#x1f43e;猫猫扒着屏幕&#xff1a;“喵&#xff1f;咱写的这句 Prompt 怎么又跑偏啦&#xff1f;明明只是想让它帮忙写一段 Python 代码&#xff0c;它偏要给咱写论文摘要……” &#x1f98a;狐狐眯着眼&#xff0c;声音带点冷意&a…

供应链管理系统入门知识:是什么,功能模块,怎么定制开发?

如果你是刚接触企业运营的新手&#xff0c;听到 “供应链管理系统” 可能会觉得有点复杂。其实&#xff0c;它就像一个 “智能管家”&#xff0c;帮企业把从买材料到卖产品的一系列流程管得明明白白。今天就用大白话给你讲清楚这个系统到底是什么&#xff0c;以及它能帮上什么忙…

kotlin - 平板分屏,左右拖动,2个Activity计算宽度,使用ActivityOptions、Rect(三)

kotlin - 平板分屏&#xff0c;左右拖动&#xff0c;2个Activity计算宽度&#xff0c;使用ActivityOptions、Rect使用平板&#xff0c;api33才支持&#xff0c;可以左右拖动&#xff0c;分屏第一个页面 &#xff0c; 思考&#xff1a;分屏后&#xff0c;对整个app的影响&#x…

v0.29.3 敏感词性能优化之繁简体转换 opencc4j 优化

敏感词性能调优系列 v0.29.0 敏感词性能优化提升 14 倍全过程 v0.29.1 敏感词性能优化之内部类迭代器内部类 v0.29.2 敏感词性能优化之基本类型拆箱、装箱的进一步优化的尝试 v0.29.3 敏感词性能优化之繁简体转换 opencc4j 优化 背景 opencc4j opencc4j 中&#xff0c;因…

Spark SQL解析查询parquet格式Hive表获取分区字段和查询条件

首先说一下&#xff0c;这里解决的问题应用场景&#xff1a; sparksql处理Hive表数据时&#xff0c;判断加载的是否是分区表&#xff0c;以及分区表的字段有哪些&#xff1f;再进一步限制查询分区表必须指定分区&#xff1f; 这里涉及到两种情况&#xff1a;select SQL查询和…

谷歌发布文本嵌入模型EmbeddingGemma(附部署方式)

EmbeddingGemma是谷歌于2025年9月开源的开放式文本嵌入模型&#xff0c;专为端侧设备设计&#xff0c;具备以下核心优势&#xff1a; 性能优势 在MTEB基准测试中&#xff0c;EmbeddingGemma在500M以下参数规模的多语言文本嵌入模型中表现最佳&#xff0c;性能接近参数翻倍的顶…

CPU调度——调度的目标

2.2.2 调度的目标 当系统中“想运行”的实体多于 CPU 的数量时&#xff0c;调度就不可避免地要在“效率”与“公平”之间做取舍。直观地说&#xff0c;一类目标希望把硬件压榨到更高的利用率&#xff0c;让单位时间内做更多的工作&#xff1b;另一类目标则关心个体体验&#x…

C++ 8

封装一个学生的类&#xff0c;定义一个学生这样类的vector容器, 里面存放学生对象&#xff08;至少3个&#xff09;再把该容器中的对象&#xff0c;保存到文件中。再把这些学生从文件中读取出来&#xff0c;放入另一个容器中并且遍历输出该容器里的学生。#include <iostream…

短视频矩阵系统源码开发搭建技术指南--支持OEM

短视频矩阵系统架构设计短视频矩阵系统通常采用分布式架构&#xff0c;包含内容管理、用户管理、推荐算法、存储分发等模块。主流技术栈包括微服务框架&#xff08;Spring Cloud/Dubbo&#xff09;、消息队列&#xff08;Kafka/RabbitMQ&#xff09;、数据库&#xff08;MySQL/…

不连续页分配器补充

vmalloc流程 1. 背景&#xff1a;vmalloc() 要解决的问题 kmalloc() 要求 虚拟地址连续&#xff0c;物理页也连续。大块内存分配可能失败。vmalloc() 只保证 虚拟地址连续&#xff0c;物理内存可以由很多不连续的页拼接。 实现的关键就是&#xff1a; 在 vmalloc 区域 找一块空…

bug | 事务粒度不能太大,含demo

刷到一个说法&#xff0c;建议不要使用transaction注解。这个说法不太准确&#xff0c;注解可以用&#xff0c;但标注的事务粒度不能太大&#xff0c;这样可能会引起数据库阻塞问题。以下介绍注解事务和编程式事务的两种用法。 关键字&#xff1a;声明式事务&#xff0c;编程式…

别再看人形机器人了!真正干活的机器人还有这些!

每次提起“机器人”&#xff0c;你脑海中是不是立刻浮现出双足行走、拟人微笑、还能陪你聊天的那种“人形机器人”&#xff1f;但真相是&#xff1a;人形机器人并非更实用&#xff0c;只是满足了我们对“人类替代品”的幻想。事实上&#xff0c;机器人的世界远比我们想象的更丰…