微信扫码
添加专属顾问
我要投稿
今天凌晨,OpenAI发布了备受关注的o3模型。
喧嚣之外,从已披露的数据维度上我们能看到什么?
首先来看最受关注的几个基准测试数据:
让我们看看历代模型的具体数据:
这组数据最引人注目的不是终点,而是增长曲线的形态。
从GPT-4到o1经历了3个季度的积累才提升了30个百分点,而o1到o3却在短期内暴增了55.5个百分点。
而在这之前,从GPT-2(2019)的0% 到 GPT-4 (2023)的 2% 花了近两年。
这种指数级增长确实值得关注。
在这个由60多位顶尖数学家开发的全新题库测试中:
关键在于这个基准的特殊性:全新未公开的原创题目,完全规避了训练数据污染的可能。这意味着成绩的提升只能来自于模型的实际能力提升。
o3在这个实时竞赛平台获得2727分,位列全球第175名。
这个成绩的含金量在于Codeforces的特点:
仔细观察这些基准测试,我们可以发现一个共同特点:它们都在测试模型的"思维能力"而非"知识储备"。
这种测试组合的选择透露出一个重要信息:OpenAI正在尝试展示模型在"通用智能"层面的进展,而非单纯的性能提升。
OpenAI这次采用了相当克制的发布方式。从文档中我们可以看到:
这种严格的筛选机制传递出一个信号:o3的能力提升可能确实达到了需要特别关注安全性的程度。
值得注意的是,目前公开信息中完全没有提到:
这种选择性的信息披露,符合OpenAI一贯的发布策略,也提醒我们需要保持理性观望的态度,Sam 还是那个 Sam,是有营销的成分在的。
纯粹从数据角度来看,o3确实展现出了显著的能力跃升。但我们也要注意到,目前所有数据都来自官方披露,尚待独立第三方验证。
作为研究者和使用者,我们期待看到:
毕竟,真正的技术突破,需要经得起时间和实践的检验。
保持关注,继续观察这个可能带来重要突破的新模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-25
OpenAI 白送 200 美元的深度研究功能?实测后发现这个「阉割版」不如不用
2025-04-25
为什么一定要做Agent智能体?
2025-04-25
哇!首个MCPBench来了,MCP竟然不比Function Calls更有优势? | 最新
2025-04-25
医疗大模型案例分析(一):Google Med-PaLM
2025-04-25
vLLM+Qwen-32B+Open Web UI构建本地私有大模型
2025-04-25
AI产品经理思考MCP(3):MCP的未来可能
2025-04-25
AI产品经理思考MCP协议(2):标准化的必要性
2025-04-25
AI产品经理思考MCP协议(1):预见MCP——我的“万能库”与标准化之路
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17