面向长期LLM代理的偏好感知记忆更新论文信息
标题: Preference-Aware Memory Update for Long-Term LLM Agents
作者: Haoran Sun, Zekun Zhang, Shaoning Zeng
发布日期: 2025-10-10
ArXiv链接: https://arxiv.org/abs/2510.09720
核心概述影响基于LLM代理推理能力的关键因素之一是其利用长期记忆的能力。集成长期记忆机制使代理能够基于历史交互做出明智决策。虽然最近的进展显著改进了存储和检索组件,通过将记忆编码为密集向量进行相似性搜索或组织为结构化知识图谱,但大多数现有方法在记忆更新方面存在不足。特别是,它们缺乏根据不断演变的用户行为和上下文动态优化偏好记忆表示的机制。
为了解决这一差距,本文提出了偏好感知记忆更新机制(PAMU),实现动态和个性化的...
长期运行低代码代理的记忆管理与上下文一致性
长期运行低代码代理的记忆管理与上下文一致性论文信息
标题: Memory Management and Contextual Consistency for Long-Running Low-Code Agents
作者: Jiexi Xu
发布日期: 2025-09-27
ArXiv链接: https://arxiv.org/abs/2509.25250
核心概述AI原生低代码/无代码(LCNC)平台的兴起使得自主代理能够执行复杂的、长时间运行的业务流程。然而,一个根本性挑战依然存在:记忆管理。随着代理长时间运行,它们面临着’记忆膨胀’和’上下文退化’问题,导致行为不一致、错误累积和计算成本增加。
本文深入分析了长期运行代理的记忆管理挑战,提出了系统化的解决方案。研究识别了三个核心问题:首先是记忆膨胀,随着交互累积,上下文长度爆炸式增长;其次是上下文退化,长时间运行后重...
以查询为中心的图检索增强生成
以查询为中心的图检索增强生成论文信息
标题: Query-Centric Graph Retrieval Augmented Generation
作者: Yaxiong Wu, Jianyuan Bo, Yongyue Zhang, Sheng Liang, Yong Liu
发布日期: 2025-09-25
ArXiv链接: https://arxiv.org/abs/2509.21237
核心概述基于图的检索增强生成(RAG)通过外部知识丰富大型语言模型(LLM),实现长上下文理解和多跳推理。但现有方法面临粒度困境:细粒度的实体级图会产生高昂的token成本并丢失上下文,而粗粒度的文档级图无法捕捉细微的关系。
粒度困境细粒度实体级图优势:
精确的实体关系建模
支持细致的推理
关系表达清晰
劣势:
Token成本极高
上下文信息碎片化
实体消歧困难
粗粒度文档级图优...
突破记忆墙:长上下文代理LLM推理的优化路径
突破记忆墙:长上下文代理LLM推理的优化路径论文信息
标题: Combating the Memory Walls: Optimization Pathways for Long-Context Agentic LLM Inference
作者: Haoran Wu, Can Xiao, Jiayi Nie, Xuan Guo, Binglei Lou, Jeffrey T. H. Wong, Zhiwen Mo, Cheng Zhang, Przemyslaw Forys, Wayne Luk, Hongxiang Fan, Jianyi Cheng, Timothy M. Jones, Rika Antonova, Robert Mullins, Aaron Zhao
发布日期: 2025-09-11
ArXiv链接: https://arxiv.org/abs/2509.095...
增强代理长期记忆的多重记忆系统
增强代理长期记忆的多重记忆系统论文信息
标题: Multiple Memory Systems for Enhancing the Long-term Memory of Agent
作者: Gaoke Zhang, Bo Wang, Yunlong Ma, Dongming Zhao, Zifei Yu
发布日期: 2025-08-21
ArXiv链接: https://arxiv.org/abs/2508.15294
核心概述由大型语言模型驱动的代理取得了令人印象深刻的成果,但有效处理交互过程中产生的大量历史数据仍然是一个挑战。当前的方法是为代理设计记忆模块来处理这些数据。然而,现有方法如MemoryBank和A-MEM存在记忆内容质量差的问题,影响了检索性能和响应质量。
本文提出了多重记忆系统(MMS)架构,灵感来自人类认知科学的多重记忆理论。系统包含三个独立但协同工作的记忆...
无需预构建图的RAG:自适应推理结构的检索增强生成
无需预构建图的RAG:自适应推理结构的检索增强生成论文信息
标题: You Don’t Need Pre-built Graphs for RAG: Retrieval Augmented Generation with Adaptive Reasoning Structures
作者: Shengyuan Chen, Chuang Zhou, Zheng Yuan, Qinggang Zhang, Zeyang Cui, Hao Chen, Yilin Xiao, Jiannong Cao, Xiao Huang
发布日期: 2025-08-08
ArXiv链接: https://arxiv.org/abs/2508.06105
核心概述大型语言模型(LLM)在处理超出其知识和感知范围的问题时,常常会产生幻觉,生成事实错误的陈述。检索增强生成(RAG)通过从知识库检索查询相关的上...
受人类启发的情节记忆:实现无限上下文LLM
受人类启发的情节记忆:实现无限上下文LLM论文信息
标题: Human-inspired Episodic Memory for Infinite Context LLMs
作者: Zafeirios Fountas, Martin A Benfeghoul, Adnan Oomerjee, Fenia Christopoulou, Gerasimos Lampouras, Haitham Bou-Ammar, Jun Wang
发布日期: 2024-07-12
ArXiv链接: https://arxiv.org/abs/2407.09450
核心概述大型语言模型(LLM)展现出卓越的能力,但在处理长上下文时仍然困难重重,限制了它们在长序列上保持连贯性和准确性的能力。相比之下,人类大脑擅长在跨越一生的广阔时间尺度上组织和检索情节性体验。本研究引入EM-LLM,一种将人类情节记忆和...
长上下文LLM在长上下文学习中的挑战
长上下文LLM在长上下文学习中的挑战论文信息
标题: Long-context LLMs Struggle with Long In-context Learning
作者: Tianle Li, Ge Zhang, Quy Duc Do, Xiang Yue, Wenhu Chen
发布日期: 2024-04-02
ArXiv链接: https://arxiv.org/abs/2404.02060
核心概述大型语言模型(LLM)在处理长序列方面取得了重大进展。一些模型如Gemini甚至声称能够处理数百万token。然而,它们的性能评估主要局限于困惑度和合成任务等指标,这些指标可能无法完全捕捉它们在更具挑战性的真实场景中的真实能力。
本文提出了LongICLBench,一个全面的基准测试套件,专门评估长上下文LLM在实际长上下文学习任务中的表现。基准包含多个领域的真实任务,如文档问...