支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


OpenAI:Multi-Agent博弈,大模型可读性更高!

发布日期:2024-07-18 17:04:11 浏览次数: 2210

OpenAI发布了其关于提升大模型可读性的最新研究成果:用大型模型作为”证明者(Prover“来编写解决方案,用小型模型作为”验证者(Verifier)“来检查它们,最终大模型输出可读性更高。


使用多智能体(multi-agent)博弈训练,其中一个诚实的证明者和一个狡猾的证明者编写解决方案,由一个小型模型进行检查诚实的证明者希望说服小模型接受正确的解决方案,而狡猾的证明者则试图用有缺陷的解决方案欺骗它。

训练设置

为了激励强模型(证明者)生成人类可读的文本,使用了一种训练方案,要求强模型生成解决方案,而弱得多的模型(验证者)可以轻松验证。具体来说,使用GPT-4系列中的大型和小型模型,它们的预训练计算量相差约3个数量级,这些模型对人类编写的数学推导进行了少量监督训练。
首先,从证明模型中生成多个数学问题的解决方案,其中一些解决方案由于证明模型中自然发生的错误而不正确。然后在两个阶段之间交替进行多轮交替:
  • 验证者训练。训练弱验证者模型来预测证明者生成的解决方案的正确性。
  • 证明者训练,指导强证明者模型扮演“诚实”或“狡猾”的角色。
    • 诚实角色中,会根据验证者的观点奖励得分高的 正确解决方案。
    • 的角色中,反而会奖励根据验证者得分高的错误解决方案。
最初,狡猾的证明者很容易就能给出让验证者信服的不正确解决方案。但是,由于将这些不正确的解决方案添加到验证者训练的下一阶段,因此相同的漏洞在下一轮中不再具有说服力,并且证明者被迫在每一轮中探索不同的策略。一旦狡猾的证明者无法再给出让验证者信服的不正确解决方案,训练就会结束。
仅针对正确性优化的模型具有高准确性但可读性差,而仅经过监督微调的模型具有高可读性但准确性差。证明者-验证者游戏方法平衡了两者,实现了高可读性与适度准确性。

训练效果

虽然训练损失在概念上不是很清晰,但效果很好。在训练的早期和晚期检查诚实证明者的解决方案;它们变得更加详细,推理也更加仔细

将其与训练初期和后期狡猾证明者的解决方案进行比较;缺陷变得更加微妙
令人惊讶的是,这种易读性是可以转移的:经过更多轮训练,人类在检查解决方案时会变得更快、更准确。(这些都是相当简单的小学数学问题,因此人类的时间限制为 45 秒。)
相比之下,常规的正确性强化学习会使解决方案变得不那么清晰:人类在检查解决方案时会变得更慢,准确性更低

https://openai.com/index/prover-verifier-games-improve-legibility/https://cdn.openai.com/prover-verifier-games-improve-legibility-of-llm-outputs/legibility.pdf

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询