微信扫码
与创始人交个朋友
我要投稿
根据斯坦福和谷歌DeepMind研究团队发表在arXiv上的一篇新论文,这种技术现在已经成为可能。
在斯坦福计算机科学博士生朴俊成的带领下,团队招募了1,000名年龄、性别、种族、地区、教育程度和政治倾向各不相同的参与者,并支付最高100美元的参与费用。通过对他们的访谈,团队创建了这些个人的智能体复制品。为了测试这些代理在多大程度上模仿了他们的人类对应者,参与者在间隔两周的时间内进行了两次性格测试、社会调查和逻辑游戏;然后让AI代理完成相同的测试。结果显示,双方的相似度达到了85%。
"如果你能让许多'小型的你'到处跑,并实际做出你本来会做出的决定——这就是未来的方向,"朴俊成说。
论文中将这些复制品称为模拟智能体,创建它们的目的是为了让社会科学等领域的研究人员更容易开展那些用真实人类受试者进行起来代价高昂、不切实际或不道德的研究。研究者认为,如果能创建行为像真实人类的AI模型,就可以用它们来测试从社交媒体上打击虚假信息的干预效果到导致交通堵塞的行为等各种问题。
这种模拟智能体与目前主流AI公司开发的智能体略有不同。后者被称为基于工具的智能体,是为执行任务而非对话而建立的模型。例如,它们可以输入数据、检索你存储的信息,或者在未来帮你预订旅行和安排约会。Salesforce在9月宣布了自己的工具型智能体,随后是10月的Anthropic,而据彭博社报道,OpenAI计划在明年1月发布类似产品。
这两类产品虽然不同但有共同点。麻省理工学院斯隆管理学院信息技术副教授Horton表示,像本文这样的模拟代理研究很可能会促进AI智能体整体发展。Horton创立了一家使用AI模拟参与者进行研究的公司。
"这篇论文展示了如何进行一种混合方式:使用真实人类来生成角色,这些角色随后可以以编程/模拟的方式使用,而这是真实人类无法做到的,"他说。
这项研究也存在一些注意事项,其中最重要的是它所指向的危险。就像图像生成技术让制作有害的深度伪造变得容易一样,任何代理生成技术都会引发关于人们是否能轻易建立工具来在网上冒充他人的问题,说出或授权一些他们本不打算说的话。
为了构建能很好地复制人类的AI智能体,研究人员需要找到方法将我们的独特性提炼成AI模型能理解的语言。他们选择了定性访谈来实现这一点,朴说。在他2023年发表的一篇关于生成式智能体的论文引起该领域巨大兴趣后。
不过,访谈并不是唯一的选择。提供制作用户"数字孪生"的公司可以让他们的AI模型摄入客户邮件或其他数据,通过这种方式复制某人的性格通常需要相当大的数据集,但这篇新论文提出了一个更有效的途径。
这里真正酷的是他们表明你可能不需要那么多信息,今天和AI面试官聊30分钟,明天再聊30分钟怎么样?然后我们用这些来构建你的数字孪生。
感谢阅读,您的分享和订阅是对我最大的鼓励和支持:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-25
神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
2024-11-23
大模型微调,使用QLoRA和自定义数据集微调大模型(上)
2024-11-22
RAG与微调:大模型落地的最佳路径选择
2024-11-22
微调大模型的五个技巧
2024-11-20
深入了解Fine-Tuning:解锁大语言模型的潜能
2024-11-19
大模型RAG神器,利用LangSmith监测、跟踪、微调LLM和RAG
2024-11-19
9.9比9.11大0.79,让大模型准确地做好数学题
2024-11-19
LLM实践系列-详聊OpenRLHF中的各种Loss
2024-07-11
2024-07-11
2024-07-09
2024-09-18
2024-06-11
2024-07-23
2024-07-20
2024-07-12
2024-07-26
2024-07-23
2024-11-18
2024-11-16
2024-11-16
2024-10-31
2024-10-31
2024-10-27
2024-10-26
2024-10-25