LangChain ChatMessageHistory组件! 发表于 2025-10-11 更新于 2025-10-11
LangChain 封装了一个管理历史信息的基类:BaseChatMessageHistory。
这是一个抽象类。用于管理历史消息,涵盖了对消息的多种管理:
添加消息、清空历史消息、查看历史消息列表、查看历史消息文本等。
BaseChatMessageHistory 是所有聊天历史实现的基类,定义了聊天历史应支持的基本操作,比如:
添加消息(用户消息、AI 消息),获取消息历史,清除历史记录。
并且所有扩展的消息历史组件均继承 BaseChatMessageHistory(包括自定义消息历史组件)。
BaseChatMessageHistory 及子类如下,其中 InMemoryChatMessageHistory 是 langchain_core
包中内置对话消息历史类。
可以将对话消息存储到临时内存中,而其他第三方集成的聊天消息历史组件均通过 langchain_community
包进行导入。
第三方 ChatMessageHistory 组件集成:https://python.langchain.com/v0.2/docs/integrations/memory/
聊天消息历史组件实现记忆功能
FileChatMessageHistory 会将对话历史存储到本地的文件中。
可以使用这个记忆组件结合原生的 OpenAI SDK 来实现在命令行界面实现带有记忆功能的对话功能。
并且关闭某次对话后,下次运行代码,读取到对应的文件时,仍然可以记忆之前对话的内容。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 import dotenvfrom langchain_community.chat_message_histories import FileChatMessageHistoryfrom langchain_core.messages import HumanMessage, AIMessagefrom openai import OpenAIdotenv.load_dotenv() client = OpenAI() chat_history = FileChatMessageHistory("./memory.txt" ) while True : query = input ("Human: " ) if query == "q" : exit(0 ) print ("AI: " , flush=True , end="" ) system_prompt = ( "你是由OpenAI开发的ChatGPT聊天机器人,可以根据对应的上下文回复用户信息,上下文里存放的是人类和您交互。\n\n" f"<context>\n{chat_history} \n</context>\n\n" ) response = client.chat.completions.create( model='gpt-3.5-turbo-16k' , messages=[ {"role" : "system" , "content" : system_prompt}, {"role" : "user" , "content" : query} ], stream=True , ) ai_content = "" for chunk in response: content = chunk.choices[0 ].delta.content if content is None : break ai_content += content print (content, flush=True , end="" ) chat_history.add_messages([HumanMessage(query), AIMessage(ai_content)]) print ("" )
LangChain 的记忆机制就是:
自动保存对话历史,并在每次调用 LLM 时,把历史对话拼接进 Prompt 中。
LangChain 记忆模块的核心组件: