微信扫码
与创始人交个朋友
我要投稿
聊到Agent的时候非常容易混淆,那么我们将现有Agent做一个梳理分类,帮助大家在发起讨论的时候定位到框架中,节约不必要的对齐
我们需要的Agent到底是什么?
能够复制我们的能力,完成需要的任务,卸载人类工作量、注意力占用,释放更多的精力到创新、探索、享受人生(就像GPU卸载了CPU负载那样),that’s like具备可塑性的秘书or员工。
现在的Agent为什么不行?(当下痛点问题)
以所谓SOTA—OpenAI为例,逻辑层过于简单:模型能力+联网信息,直接产出,且中间过程黑箱化、不可控制、难监督优化,报告结构、思考维度、深入层度难达到产出要求。
数据接口限制+API能力有限,这是伪Agent
目前GPTs、各类三方插件主要以api的方式接入GPT平台,但(1)受制于接入方数据和能力的开放程度 (2)三方能力阉割严重(因为无法真正交互),比如哪怕调用了Canva插件,还是无法一站式反馈任务成品。
目前的操作系统已经经历了近30年的衍化,所以软件都遵循近乎同样的使用语言(for用户体验),应该更好地利用。
综上,OpenAI是copilot/领航员,但不是车手/autopilot,光有大模型(决策系统)是不够的,需要拿到更多“行动”的权限,去实现链路上的闭环,真正代理或者部分代理人类的工作。
AI学习人类使用工具的逻辑、动作,并复现相关的能力,而不是成为能力本身。
Agent是一个会开车的AI,而不是用AI直接做一个可实现点到点的工具,可直接去复现人类近20年的OS使用习惯,大幅提升落地效果和效率。
面对现状的问题,我们先看下SOTA(OpenAI)的动作
OpenAI将AI划分为5个等级,自称其AI模型正处于L1,但很快就会达到L2(推理者)。而根据其前研究员预测,五级AGI最快将在27年实现;而L5,就是实现AGI的最后一步,至此,AI将可以执行整个人类组织的工作。
OpenAI CTO曾透露,OpenAI接下来将致力于研究在特定任务上博士级别的智能,也许就在一年或一年半之后实现。
去年11月,头部AI团队DeepMind团队也发表了一篇论文「Position: Levels of AGI for Operationalizing Progress on the Path to AGI」中,详细定义了AGI的不同级别。
OpenAI的具体探索动作:
神秘模型“strawberry”相关消息频发,据称将推进至Level2阶段
自GPT-4面世以来,已经过去了17个月,大约一年半的时间。虽然今年,OpenAI也发布了新模型GPT-4o,以及GPT-4o mini,它们皆是原生多模态基础模型。但来自竞家Anthropic、Meta等公司的竞争也愈加激烈。他们发布的模型在某些任务中,能够与GPT-4o抗衡,甚至略胜一筹。
苹果在Agent方向的探索:Apple Intelligence以及apple intents
今天苹果WWDC2024开发者盛会的One More Thing就是Apple Intelligence!它了解用户的各种日常习惯、关系和日常通讯内容,以提供高度个性化的服务。
Apple Intelligence系统架构通过Orchestration技术(Siri底层的新名字)来决定哪些任务本地哪些交给云端。
而关于此次Siri重生背后的技术,Jim Fan大佬也提前做了分析:Ferret-UI;它是一个多模态视觉-语言模型,能够理解iOS移动屏幕上的图标、控件和文本,并推理它们之间的空间关系和功能含义,你可以问Ferret-UI的示例问题包括:
有了强大的屏幕理解能力,向模型添加动作输出并使其成为一个完整的设备上助手并不难。这篇论文甚至讨论了数据集和iOS UI基准构建的细节。
Ferret-UI能够在移动UI屏幕上执行引用任务(例如,部件分类、图标识别、光学字符识别(OCR))和定位任务(例如,查找部件、查找图标、查找文本、部件列表)。
如何让这个agent替代执行这些动作?如何执行这些动作?实际上,苹果专门介绍了他们的intents,详细地介绍了这个过程,比如Siri可以为建议应用程序的action,帮助人们发现应用的某些功能,实现特定的操作。
在一个APP内部或跨APP之间执行一些action,苹果举了一个例子,都知道在iPhone上有快捷指令功能,换言之,就是shortcuts;自从iPhone 13或14开始,用户就能够构建自己的快捷指令。
在通过 Siri 触发 Shortcuts 时,系统可以允许用户在一定程度上和自定义视图交互,以便确认用户意图、向用户展示结果或者要求用户提供更多输入信息等,如下图所示。
国内大厂在技术方向的探索,如阿里的mobile-Agent,新的Agent打破了APP的界限,能够跨应用完成任务,有机会成为真正的通用型Agent。
Mobile-Agent 于今年年初发布,凭借强劲的自动化手机操作能力迅速在AI领域和手机制造商中引起广泛关注。短短五个月内,它已经在Github获得了2,000个Star。
该系统采用纯视觉方案,通过视觉感知工具和操作工具完成智能体在手机上的操作,无需依赖任何系统级别的UI文件。得益于这种智能体中枢模型的强大,Mobile-Agent实现了即插即用,无需进行额外的训练和探索。
在手机操作任务中,智能体通常需要通过多步骤来满足任务需求。每步操作时,必须跟踪当前任务的进展,即了解先前完成的要求,从而推断出依据用户指令进行的下一步操作;而操作历史记录,每一步包含的具体操作和对应的屏幕状态,都会被保存下来。
在一些任务中,智能体需要查看天气并撰写穿衣指南。生成指南时,智能体需要依赖历史屏幕中的天气信息。因应这一需求,Mobile-Agent-v2设计了记忆单元,由决策智能体负责更新与任务相关的信息。此外,由于决策智能体无法直接观察操作后的屏幕信息,系统还引入了反思智能体,用于监测并评估决策智能体操作前后的屏幕状态变化,确保操作的正确性。
随着人工智能技术的不断进步,我们见证了从古希腊时期的智能机器设想到现代人工智能实体落地的演变。从塔罗斯的神话故事到中世纪工匠的机械迷思,再到今天高度复杂的AI Agent,这一历史发展不仅体现了人类对智能和自动化的不懈追求,也反映了我们对“行动”概念的深刻理解和应用。
在这个过程中,我们认识到了“Agent”一词的多重含义和它在不同语境下的应用。正如本文所探讨的,一个清晰的讨论框架对于理解“Agent”至关重要。我们应该继续深化对AI Agent的认识,推动其在各个领域的应用,同时确保技术的发展与伦理、安全和社会责任相协调。
在未来,AI Agent的发展无疑将继续影响我们的生活和工作方式。让我们以开放的心态迎接这些变化,同时保持批判性思维,以确保技术进步能够造福全人类,而不是成为少数人的特权。让我们共同期待并塑造一个更加智能、高效和公正的未来。
---END---
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-21
致继刚,感谢你继承乔哈里视窗和提示词心法
2024-11-20
郭美青 | 从Demo到商用—构建企业级提示词工程,加速AI应用商用落地
2024-11-20
云中江树 | 重塑自然语言编程,Agent 训练的核心探索
2024-11-20
一个让AI智商暴涨300%的Prompt Engineer 万能方法论
2024-11-19
从乡下放牛娃到大厂AI顾问:我用本硕七年,重写自己的人生
2024-11-18
智能对决:提示词攻防中的AI安全博弈
2024-11-15
AI对话的日常思考:当我们在讨论提示词时,到底在纠结什么?
2024-11-14
你不需要招一个天才Prompt少年,也不需要玄幻的prompt来做开发
2024-06-29
2023-06-08
2024-08-20
2024-06-27
2024-06-14
2024-07-09
2024-07-12
2024-09-17
2024-06-26
2024-06-29