AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Anthropic 新研究让大模型承认"我不行"
发布日期:2024-09-02 20:21:50 浏览次数: 1598


最近研究发现,那些平时自信满满的大模型,竟然也能有了"自知之明"?!

没错,就是那些动不动就喊着"我无所不能"的AI,现在也学会说"这题我不会"了!

这项名为"自我校准提示"的新技术,简直就是给AI装上了一个"诚实药丸"。

它的操作也很简单,就是两步走
  1. 先让AI回答一个问题
  2. 再让AI评价自己刚才的回答对不对

就这么简单的两步,居然能让那些平时嘴硬的大模型乖乖认错?

有网友表示:"这不就是打脸神器吗?以后GPT-4再敢胡说八道,我就用这招!"

这项技术源自Anthropic 的论文——《语言模型(大多)知道它们知道什么》。

来自Anthropic 的论文作者发现,越大的模型,在自我评估方面表现得越好。这就好比,学霸不仅会做题,还知道自己哪道题做对了

有意思的是,研究还发现了一个叫"P(IK)"的小玩意儿。这东西就像是给AI装了个"知识探测器",能预测模型是否能正确回答某个问题。

更神奇的是,如果你给AI一些提示或参考资料,它的"P(IK)"值就会增加。这不就是活学活用吗?

有网友调侃道:"这下AI也有'临场发挥'的机会了?给点提示就能临时抱佛脚?"

此外,这项技术还有很多有趣的细节。

比如,研究人员发明了一个"头脑风暴"技巧,让AI在评估自己之前先看看其他可能的答案。这种方法居然大大提高了AI的自我评估能力!

这简直就是给AI开了个“对比学习”的小灶啊!

更让人惊讶的是,随着模型规模的增大,AI的自我验证能力似乎提升得比生成能力更快。这意味着,未来的大模型可能会更懂得审视自己

有网友戏称:以后AI不仅能写作文,还能当阅卷老师了?

总的说,这项研究为我们揭示了AI自我认知能力的一个新维度。

它让我们看到,未来的AI可能不仅仅是一个全知全能的黑盒子,而是一个能够理解自身局限的智能助手。

而我想补充的是:连AI都开始"自知"了,我们人类是不是也该多反省反省?


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询