目录
一、前言
二、AI大模型会话记忆介绍
2.1 AI 大模型的会话记忆是什么
2.2 AI 大模型为什么需要会话记忆
2.3 AI 大模型会话记忆常用实现方案
2.4 LangChain4j 会话记忆介绍
2.4.1 LangChain4j 会话记忆介绍
2.4.2 LangChain4j 会话记忆类型
三、Langchain4j 会话记忆操作案例使用
3.1 前置准备
3.1.1 导入依赖文件
3.1.2 添加配置文件
3.1.3 前置案例
3.2 会话记忆的实现
3.2.1 基于多轮对话存储结果实现会话记忆
3.2.2 基于ChatMemory 实现会话记忆
3.2.3 基于ChatMemory 会话记忆升级
3.3 会话隔离实现
3.3.1 自定义一个Assistant
3.3.2 自定义chatMemoryProvider 配置bean
3.3.3 添加测试接口
3.3.4 效果测试
四、基于Redis实现会话记忆持久化存储
4.1 前置准备
4.1.1 导入redis依赖
4.1.2 添加redis配置信息
4.1.3 自定义redis序列化类
4.2 会话记忆代码改造
4.2.1 自定义ChatMemoryStore
4.2.2 ChatMemoryProvider 配置bean改造
4.2.3 接口效果测试
五、写在文末
一、前言
在于大模型对话的时候,细心的伙伴们会发现,前面跟大模型聊的一句话,后面再基于这句话继续问问题的时候,仍然可以得到预期的回答,这就是大模型的记忆能力。什么是记忆功能?默认情况下向大模型每次发起的提问都是新的,大模型无法把每次对话形成记忆,也无法根据对话上下文给出人性化的答案。比如:我的第一次提的一个问题,大模型给出了一个回答的列表,当我再次提问这个回答列表中的一个问题时,它就不知道我在说什么了,因为大模型已经失去了上一次的提问记忆。所以让智能体(如AI助手、机器人、虚拟角色等)拥有记忆功能不仅能提升交互体验,还能增强其功能性、适应性和长期价值。