前言
随着 AI 大模型的爆发,提示词工程(prompt engineering ) 一度是用户应用 AI ,发挥 AI 能力最重要、也最应该掌握的技术。 但现在,在 “提示词工程”的基础上,一个更宽泛也更强力的演化概念被提出,也就是本文我们要介绍的 “上下文工程(Context Engineering)”
特别是今年以来,随着 AI Agent的爆发,在应用 AI 时,将哪些信息有效传递给 AI “有限的记忆空间”变得越来越重要。很多时候,调用 AI Agent 效果不佳,并不是大模型本身的能力不佳,更多是上下文的质量有所欠缺。
提示词工程的局限性
提示词工程 通过优化输入给模型的文本,可以优化模型的输出质量。
但随着越来越多Agent的加入,以及应用场景的复杂化,仅依靠提示词,已经很难让大模型有效完成
越来越复杂的任务。
比如要完成一个AI智能测试用例系统,在利用大模型的过程中,还需要如下信息:
- 原始的需求文档、接口文档信息
- 系统的架构设计、数据库、系统框架
- 各种应用接口的状态
- 和用例管理、文档管理、自动化测试等外部工具的调用。
这些要求,仅仅通过向大模型和对应的Agent传递提示词,已经很难完成。
这也就是提示词工程最大的局限性:缺乏上下文理解与状态管理能力。
何为上下文工程?
要理解“上下文工程”,先要明确,何为上下文?
相比提示词(prompt),