行动(Action):在Agent的构建过程中,行动模块接收大脑模块发送的行动序列,并执行与环境互动的行动。
五个关键组成部分,即规划、记忆、工具、动作
规划(planning)
-
子目标分解:agent将大任务拆分为更小的可管理的子目标,使得可以有效处理复杂任务。
-
反思与完善:agent对历史动作可以自我批评和自我反思,从错误中学习并在后续步骤里完善,从而改善最终结果的质量。
记忆(Memory)
-
短期记忆:上下文学习即是利用模型的短期记忆学习
-
长期记忆:为agent提供保留和召回长期信息的能力,通常利用外部向量存储和检索实现
工具使用(tool use)
-
对模型权重丢失的信息,agent学习调用外部API获取额外信息,包括当前信息、代码执行能力、专有信息源的访问等等
1.1智能体分类
一般来说,智能体具有以下特征[1, 2, 3, 4]:
-
自治性:智能体独立感知环境、做出决策并采取行动,而无需依赖外部指令。
-
感知: 智能体配备了感知能力,通过传感器收集有关环境的信息。
-
决策: 智能体根据所感知到的信息进行决策,选择合适的行动来实现他们的目标。
-
行动: 智能体执行改变其环境状态的动作。
智能体可以分为五类:简单反射智能体、基于模型的反射智能体、基于目标的智能体、基于效用的智能体和学习型代理。基于强化学习的智能体(即RL-based智能体)和基于大型语言模型的智能体(即LLM-based智能体)属于学习型智能体的范畴。
1.2LLM-based Agents
当代研究强调了LLM在自然语言处理(NLP)领域中的卓越能力,包括推理、常规问题回答、编程和文本生成(Zhao,2023;Bubeck,2023)。然而,调查表明,LLM在解决实际任务时经常面临许多障碍(Chan,2023;Devlin,2019;Reed,2022)。
-
上下文长度约束:LLM常常在上下文长度方面存在限制,更容易忽略位于上下文中部的文本,相比之下,更容易关注开头或结尾的文本。
-
持续的知识更新:LLMs在每次训练迭代过程中需要大量的时间和计算资源,导致知识更新被推迟。
-
缺乏直接工具利用: LLMs无法直接使用外部工具,如计算器、SQL执行器或代码解释器。
将智能体机制纳入其中,可以在一定程度上解决上述挑战。以GPT-4为代表的基于LLM的聪明的智能体,将LLM作为认知和战略过程的基础,融合了LLM和智能体的优势。与其他智能体不同,基于LLM的智能体利用LLM进行认知和战略处理,促进智能行为。
相比于其他替代智能体,基于LLM的智能体具有以下优点。
-
强大的自然语言处理和全面知识: 利用在大量文本数据上训练中培养出的深厚语言理解和生成能力,LLM拥有丰富的常识知识、领域专业知识和事实数据。这使得基于LLM的智能体程序具备处理各种自然语言任务的能力。
-
零样本学习或少样本学习: LLM已经在训练过程中获得了丰富的知识和能力,因此基于LLM的智能体在新任务中通常只需要很少的样本就能表现出色。它们卓越的泛化能力使它们能够在之前从未遇到的情境中表现出色。
-
有机人机交互:基于LLM(语言理解与生成模型)的聪明的智能体可以理解和生成自然语言文本,促进人类用户和聪明的智能体之间通过自然语言的交互。这增强了人机交互的便利性和以用户为中心的特点。通过将LLM的语言理解和生成能力与智能体决策和规划能力相结合,基于LLM的智能体为解决LLM在实际应用中遇到的障碍提供了有前景的解决方案。
原文链接:https://blog.csdn.net/weixin_52851668/article/details/140307911?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522d174d2df71c2e48b52f42a3573e3eba0%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=d174d2df71c2e48b52f42a3573e3eba0&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-27-140307911-null-null.nonecase&utm_term=AI+AIAgent