微信扫码
与创始人交个朋友
我要投稿
论文笔记分享,标题A COMPARATIVE STUDY ON REASONING PATTERNS OF OPENAI’S O1 MODEL》,代码开源:https://github.com/Open-Source-O1/o1_Reasoning_Patterns_Study
OpenAI的o1模型在推理时候花费更多的时间,可以大幅提高LLMs的推理能力。然后呢,这篇文章就以gpt4o为基础,先论证一些推理时候的思考策略,然后分析o1的6种推理模式,最后是一些实验。
常见的推理策略
这些策略测试的结论结论:
然后是论证6种推理模式((Systematic Analysis (SA), Method Reuse (MR), Divide and Conquer (DC), Self-Refinement (SR), Context Identification (CI), and Emphasizing Constraints (EC))),o1最常用的推理模式是DC和SR。
系统分析(Systematic Analysis, SA):从问题的整体结构开始,o1首先分析输入和输出以及约束,然后决定选择算法和使用数据结构。
方法重用(Method Reuse, MR):对于一些可以转化为经典问题(如最短路径或背包问题)的问题,o1能够快速重用现有方法来解决它们。
分而治之(Divide and Conquer, DC):将复杂问题分解为子问题,并通过解决子问题来构建整体解决方案。
自我完善(Self-Refinement, SR):o1在推理过程中评估其推理过程,以确定是否存在问题并纠正任何错误。
上下文识别(Context Identification, CI):对于一些需要额外信息输入的数据集(例如HotpotQA),o1首先总结与查询相关的不同方面的上下文,然后给出相应查询的响应。
强调约束(Emphasizing Constraints, EC):对于一些对生成文本有约束的数据集(例如Collie),o1在推理过程中通常会强调相应的约束。
这几种模式在几个数据集上出现的频次如下,不同难度的数据,o1采用的推理模式会存在一定的差异。
最后是一些分析实验
对于BoN系列方法,需要一个策略来选择生成响应中最合适的响应。使用不同的策略进行实验,发现人工可以显著提高LLMs的准确率。除此之外BoN的性能受到N(生成响应的数量)的限制,增加N可以探索BoN能力的上限。
当前基准测试中包含许多简单的样本,无法区分不同 LLM 的性能差异。数据过滤后,不同 LLM 的分数相对较低,且区分度更大。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-07
Ollama 0.4 版本发布,支持 Llama 3.2 Vision 视觉模型,实测满足个人使用
2024-11-07
Chat2DB:智能数据库查询工具,一款强大的数据库聊天机器人工具
2024-11-06
分步拆解,使用Qwen大模型创建多语言聊天和翻译应用
2024-11-06
Neolink.AI 集成 Ollama ,简化本地AI模型部署
2024-11-06
一个很酷的想法,基于llm的浏览器自动化,这个开源项目有前途
2024-11-06
刚刚,腾讯混元开源两大核心模型!
2024-11-06
Standard Intelligence Lab 推出 Hertz-Dev 实现AI实时对话了
2024-11-06
PymuPDF4llm:PDF 提取的革命
2024-05-06
2024-08-13
2024-07-25
2024-06-12
2024-06-16
2024-07-11
2024-06-15
2024-07-20
2024-07-25
2024-07-25