微信扫码
添加专属顾问
我要投稿
钉钉AI客服免费开放,探索AI Agent的未来趋势。 核心内容: 1. AI Agent在个人助手与Agent界限模糊中的定位 2. AI Agent在各行业应用的具体场景与案例 3. AI Agent发展的预测:垂直领域壁垒形成与专业平台崛起
其实这里有个问题,为什么突然大家就对Agent如此感兴趣了,答案还是要回归此图:
可以看到,从七层结构来看,个人助手与Agent的界限很模糊,而AI Agent生成平台的意义就是为了生成更多的个人助手,可以说AI Agent就是AI应用追逐的方向。
而对行业应用的理解,可以是严肃的Agent,需要对输出负责,需要有各种监测指标。
AI Agent可以说大势所趋,在基座模型争夺战结束后,下一轮的行业Agent平台的争夺一定会再次展开!
逻辑上,能被AI重写的应用,一定会被AI重写,其波及面是很广的:
Agent 场景 | 说明 |
---|---|
产品对话助手 | - 产品使用指南内容 - 系统功能使用内容 - 使用文档 - 工具脚本 |
对话助手 | - 电话客服脚本 - 咨询客服脚本 - 外呼客服脚本 - 客服场景 - 用户运营 |
内容审核 | - 合同审核 - 经营类资质审核 - 商品信息审核 - 评论审核 - 其他内容审核 |
报告生成 | - 企业深度报告生成 - 竞品对比报告生成 - 客户报告生成 - 会议纪要 |
知识管理 | - 文档编撰 - 知识库分类 - 知识库迭代 - FAQ |
企业系统统一导航 | - 会议纪要 - 客户管理 - 项目管理 - 合同管理 |
数据分析 | - 通用数据分析报表(大类) - 经营报表(大类) - 其他 |
代码 | - 代码生成 - 代码审查 - 代码调试 |
而当前属于AI行业红利期,只要转过来就一定有口饭吃:
而年后,我这边收到AI相关的咨询已经过百了,是年前的5倍...
所以,Agent的下一步发展,是值得我们关注的。
后续AI Agent的发展,我认为会围绕此图做展开,当前以Coze、Manus、dify等为主通用Agent平台很快就会成为基础或者过去式:
原因无他:通用类Agent生成平台没办法关注模型的专业性问题,而每个大领域如医疗、教育、法律、金融都具有极大的壁垒,他们虽然做不出好的基座模型,但一定能产出好的Agent生成平台。
而,这也是很值得做的一件事,在领域方面别说Manus这类通用Agent平台不行,我是认为OpenAI与DeepSeek暂时来说也不行,因为总有些他们搞不定的行业数据。
从当前发展态势看,AI Agent平台将沿着三个方向深度演进:
医疗、法律、金融等行业正通过数据护城河+领域知识工程构建专属Agent。
以医疗领域为例,去年看到的一个AI医疗案例,他通过融合300万份电子病历、药品知识库和诊疗指南,在辅助诊断准确率上已达到91.2%,远超通用模型的67%。
如果这个说法属实(现在不是自己做的应用,我都不太相信数据...)这种专业壁垒使得行业Agent逐渐成为刚需工具。
Coze等平台已证明,通过模块化组件(知识库/工作流/API)快速搭建Agent的模式可行。
某跨境电商企业用Dify+本地商品知识库,快速产出各种SOP、随后对接ERP系统形成客服Agent,响应速度提升40%+。
这种积木式开发正在降低行业应用门槛。
后续Agent效果会有各种量化指标,甚至形成一定标准或共识。
比如风控Agent需同时满足响应时效(<2秒)、误报率(<0.3%)、规则可解释性(100%可追溯)三项标准。
今年监管部门也在活跃,相信后续对于LLM的内容产出会有新的要求。
值得注意的是,通用平台与行业平台并非替代关系。
与之前类似,做基座大模型的比如阿里云,他们同时提供通用版和医院定制版,后者在保持基础能力的同时开放检验指标解读、医嘱生成等垂直模块接口。
这种分层演进模式,或将成为主流发展路径,只不过做既做平台又做应用会有一些优势。
接下来,我们来说一些现状,就个人观察情况不是太妙,还得教学费。
目前,市场上各类 AI Agent 框架层出不穷,但真正能在实际业务中落地并带来价值的,却寥寥可数。
整体来看,现阶段的 Agent 生态正处于探索与试验阶段,既有一些具有前瞻性和高度定制能力的平台,也有不少仅能用于 Demo 展示的工具。
以 Coze、Dify 和 Manus 为代表的几款平台,正逐步展现出各自的特色和应用前景。
首先,Coze 作为字节跳动推出的Agent 平台,凭借其插件生态和多模态数据处理能力,具备较强的扩展性。
尽管其目前在跨领域协作方面仍有局限,但在快速响应需求和构建初步 Demo 方面,其优势显而易见,而且体验真的挺不错的。
随着生态的不断完善,Coze 有望进一步打破技术壁垒,将更多业务场景纳入统一管理体系。
只不过门槛和最后一公里才是他真正要面对的问题。
相比之下,Dify 则走的是低代码/无代码路线,主要面向技术团队做定制化进一步定制化开发,甚至可以认为Dify就是Coze。
因为类似,那么Coze有的问题,Dify一个都跑不掉,并且体验可能还赶不上Coze。
至于 Manus,它代表了一类“通用型 AGI 平台”,兼顾了任务规划和实际执行能力。
Manus 的优势在于能同时处理决策制定和具体执行,减少了中间环节的人工干预,从而提升整体效率。
然而,高度的通用性也带来了一定的资源消耗和实现难度,特别是在简单任务场景下,可能显得大材小用。
但正因为其具备跨领域任务处理的潜力,Manus 更适合应用于需要深度定制和多维协同的复杂场景,比如高级机器人控制和智能家居系统整合。
但如前所述,我对于Manus在行业AI Agent的发展并不看好。
总体而言,当前 AI Agent 框架正处于技术突破与市场需求激烈碰撞的阶段,它们都试图打破传统的单一功能模式,向着更高层次的业务集成迈进。
未来,随着垂直领域应用的不断深入和多模态协同技术的提升,这些平台在性能、稳定性和易用性上都有望得到进一步改进,从而在企业AI转型中发挥更大的作用。
企业在选择合适的 Agent 工具时,既要关注其技术特性,也要考虑实际业务场景的适配性,真正实现技术与业务的深度融合,而非仅仅停留在表面上的 Demo 阶段。
可以看出,上述的Agent全部是建立在各种SOP之下,而我认为SOP是更为结构化的优质数据。
而大模型当然不会放弃,他可能认为上述技术路径是错的,于是提出了更多的构想。
比如OpenAI 发布了 DeepResearch,他一方面在应对DeepSeek Cot带来的冲击,另一方面他还是想在模型上完成更多的工作,或者说:他们会认为AGI不需要SOP。
以下是我的真实评测,我的工作是:想要去整理所有的医疗信息,这显然是一项复杂的工程,为了降低难度,我更改了问题,从信息转变成了信息渠道的发布者:
梳理所有的医疗信息发布渠道,并且按权威性排序,基于这个问题,我开始了Deep Research之旅,这里我先是给了一些输入:
我要完成《医疗信息产出渠道全景分级体系》。
其目的是将所有可能产出医疗信息的机构全部包含,并且进行分级,需要遵循MECE原则
PS:真实提示词会严谨很多,但有一定密度就不放出来了
在多次提示、反复的情况下,GPT给了我以下反馈:
不用细看了,有很大问题,连最基础的医疗教科书都没有...
在明知道他有问题的情况下,我开始了反复暗示:是否有遗漏,很可惜系统都没有给我满意的答复。
而后在我明示的情况下,他终于将医学教材加入:
于是我继续质疑,是否还有遗漏,但连续等了两个近10分钟,GPT依旧十分嘴硬!
不得已我只能继续提示:是否药厂很多信息没有暴露,因为很多大型药企会经常发布新药,其中会涉及大量药品信息,比如新冠相关药物的一些说明...
于是GPT恍然大悟,继续梳理,而不一会我深度研究的次数就耗尽了:
但问题并未得到解决,最终只好与“不听话的DeepSeek-R1”继续纠缠...
综上,在每个问题耗时5-15分钟以后,GPT的Deep Research对于过于复杂的问题,是难以独立完成任务的。
然后,Deep Research黑盒依旧不少,真实体验下来并不比DeepSeek-R1来得高明太多,只不过看上去阵仗特别大...
换句话说,简单任务犯不着用Deep Research,复杂任务又指望不少,在这个基础上,上表的结果我只能认为可能是测试题目进行了精心挑选了...
而从近期对AI搜索工具的调研来看,AI在实时搜索和信息引用方面存在严重问题,这些问题同样暴露了Deep Research在处理复杂信息时的不可靠性。
研究数据显示,在对20家出版商共1600次提问中,超过60%的回复存在错误,部分工具的错误率甚至高达94%。
这种现象不仅体现在引用新闻文章时,也反映在对原始信息的检索和链接准确性上。
AI搜索工具往往以自信满满的语气输出错误答案,很少使用“似乎”或“可能”等措辞来表达不确定性,甚至在面对明显屏蔽内容时也会错误回应。
举例来说,付费版的工具在回答问题时错误率反而更高,这不仅损害了用户体验,更使得信息的真实性和权威性受到质疑。
OpenAI 强调 Deep Research 是一个模型,并不是基于o3叠加一堆工作量:
用户提问时,Deep Research像经验丰富的研究员,首先主动搜索并提取初步结果,深入分析信息质量和相关性。如果结果不足,Deep Research会调整搜索关键词,重新探索相关信息。
相比之下,传统AI搜索通过将问题拆解为关键词,依赖外部API返回结果,再由模型进行总结提炼,这种方式效率较低,难以有效过滤低质量信息。
在行业调研中,Deep Research提供可靠数据源并能推算新趋势,虽然偶尔出现幻觉现象,但总体较少。
说实话,就过往经历,我还更期待其叠加了大量SOP呢,比如进来有点小火的Manus(Agent平台),反正从测评来说“他又超过了OpenAI了”:
在实际使用过程中,可以得出一个结论:在Manus擅长了领域,他的体验是优于research的,而其是否擅长又要取决于整体的意图识别,以及意图识别后的SOP成熟度了。
举个例子,我如果基于o3写一套SOP去实现筛选某行业全量的信息渠道,其结果暂时来说一定比research好,这就是KnowHow的威力。
当大模型在专业领域频频“露怯”时,医疗诊断准确率从67%到91%的跃迁已证明:真正构建行业壁垒的,不是参数规模而是结构化知识工程能力。
那些沉淀了十年诊疗路径的医院、积累了百万判例的律所、梳理了千条风控规则的金融机构,正在将业务SOP转化为AI时代的数据护城河。
当前Agent生态的混战,本质是两种技术路径的博弈:
而现实世界的复杂任务,往往需要二者在规则约束下的创造力中达成平衡。
正如测试案例所示:当AI连医疗教科书都遗漏时,再精妙的搜索算法也难掩知识体系的残缺。
这场Agent革命最深刻的启示或许是:能被AI重构的从来不是行业本身,而是行业知识的组织方式。
那些率先将业务经验转化为可编程工作流、将专家智慧沉淀为可迭代数字资产的组织,终将在AI转型中掌握真正的主动权。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-08
2024-07-22
2025-02-09
2024-08-09
2024-07-14
2024-06-30
2024-09-07
2024-10-18
2024-03-31
2024-10-16