微信扫码
添加专属顾问
我要投稿
HuggingFace团队24小时极限挑战,复刻OpenAI Deep Research,开源AI工具生态迎来新变革! 核心内容: 1. HuggingFace闪电速度复刻OpenAI Deep Research,开源智能体性能亮眼 2. 项目从立项到发布仅用24小时,极限开发全流程揭秘 3. 完全开源,内核使用CodeAgent,支持多种文件格式解析和跨会话记忆
24 小时极限开发的 Agent 能跑多快?
昨天凌晨,HuggingFace 又一次扔下重磅炸弹——宣布开源名为「Open Deep Research」的自主研究智能体。
直接对标 OpenAI 闭源 Deep Research,这个从立项到发布仅用 24 小时的项目,正在用开源社区的闪电速度改写 AI 工具生态。
故事要从 OpenAI 前天发布的 Deep Research 说起(能自动爬取全网信息、生成研究报告的智能体)。很强,但每月 200 美元的订阅费与闭源模式门槛也不低。
HuggingFace 实验室的科学家们直接拍板:「24 小时内,我们要用开源复刻这个产品!」
这个疯狂的计划最终演变成:
在GAIA基准测试中,获得了非常优异的成绩!
项目完全开源,代码地址:
https://github.com/huggingface/smolagents/tree/gaia-submission-r1/examples/open_deep_research
内核使用他们自家的CodeAgent,相比于输出一堆的json,用代码对模型来说更顺畅,之前写过这个框架的教程,可以再公众号首页标签中找到。
第一个版本,使用纯文本浏览器,绕开渲染开销 ,页面元素自动转 Markdown 格式 。
使用一个解析器自动读取文本,支持 PDF/CSV/JSON 自动转换, 数学引擎能处理复杂公式推导 。
记忆模块保留跨会话上下文。
模型使用o1,为什么不用o3-mini?
官方回应: 它真的很快,但性能不如 o1 和 gpt-4o。我觉得模型太小了,对于困难任务还不够。
试过用 Deepseek R1 做这个吗?
官方回应: 试过,但没有 o1 那么好。这不是像许多 LLM 那样能力不行的问题,更多的是缺乏对框架指南的适应。所以我们正在考虑微调来解决这个!
最后,官方博客中提到:「o1 模型的 API 调用费已超过实验室咖啡预算,但我们需要证明开源框架的上限」
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-20
AutoAgent:让AI智能体开发变得触手可及
2025-03-20
Second Me:在 AI 中保留自我的火种
2025-03-20
AI交互新范式:MCP(模型上下文协议)场景化应用与科普
2025-03-20
本地部署OpenManus对接QWQ-32B大模型并实现远程访问
2025-03-20
188元,无需网络,DIY 开源AI-Box离线运行 DeepSeek /Qwen /Gemini 大模型!
2025-03-20
小白也能搞懂的MCP教程,MCP到底有什么用?简单易懂,一学就通
2025-03-20
国内使用Claude 3.7 sonnet的6种方法
2025-03-20
SmolDocling | 高效文档转换VLM
2025-01-01
2024-07-25
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-06-12
2024-08-13
2024-07-11
2024-12-26
2025-03-19
2025-03-17
2025-03-17
2025-03-13
2025-03-13
2025-03-08
2025-03-03
2025-03-02