微信扫码
与创始人交个朋友
我要投稿
随着大型语言模型(LLM)的发展,基于LLM的智能体(agents)通过自然语言提示执行任务的能力得到了显著提升,这减少了对显式重新训练或微调的需求。然而,当应用于开放式挑战(如诗歌创作)时,由于提供的示例的全面性和智能体理解问题内容的能力的限制,现有方法在生成预期结果方面存在显著局限性。
为了解决这些问题,提出了Memory Sharing (MS) 框架,旨在通过实时记忆存储和检索系统来增强LLM多智能体的上下文学习过程。
记忆共享(Memory Sharing)框架。每当生成一个新的(提示,回答)对时,它将被考虑加入到记忆池中,并用于训练检索器。
使用三个合适的记忆和定期更新的领域池来评估智能体在处理开放式查询方面的性能
一个示例文本,展示了智能体如何回答一个开放式问题
Memory Sharing for Large Language Model based Agentshttps://arxiv.org/pdf/2404.09982.pdfhttps://github.com/GHupppp/MemorySharingLLM
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-08-13
2024-05-10
2024-05-28
2024-04-26
2024-04-12
2024-04-25
2024-05-06
2024-07-25
2024-05-14