微信扫码
添加专属顾问
我要投稿
DeepSeek R1 的高效使用指南,揭示如何从 A 推进到 B 的关键技巧。 核心内容: 1. R1 的缺陷与优势分析 2. 提出明确目标以获得高质量内容的策略 3. 实际案例:帮助孩子从柯尔伯格道德阶段 1 过渡到阶段 2 的具体方法
收到过好几位朋友的反馈,说 R1 这不行那不行,很困惑我为啥一直在说 R1 好。
我的回答是:R1 确实有一些特别明显的缺陷,例如幻觉一骑绝尘、总爱故作玄虚说量子、不听使唤 CoT 或角色扮演都比指令模型难……但是,在它擅长的任务上,R1 带给我的认知突破远远多于其它模型(是的,比 o/claude/gemini/grok 已发布的最佳模型还要优秀很多,看本文第二个例子)。
我在之前的文章里有写:要让 R1 生成的内容有用,一定得给足背景信息。最近要再补充一条体会特别深的:要让 R1 产出高质量内容,最好有非常明确的目标。
最近多次,询问 R1 如何从 A 状态进入到 B 状态,都得到了非常惊艳的结果。
第一个例子,是我发现某孩子的表现明显处于柯尔伯格道德水准的阶段 1(行为对错取决于是否被惩罚,服从权威以避免不良后果。“玩游戏不能超过时间是因为妈妈会生气要扣积分“)。我问 R1 如何能帮孩子从阶段 1 进入到阶段 2(行为以满足自身需求或交换利益为准则)。R1 给出的建议非常具体且容易实操,真的是父母好帮手。
另一个更惊艳的例子来自小飞机校长,她和我聊天时感叹:“如何让只有能力读《哈利波特》的初中生有能力读《百年孤独》?”
我顺手打开元宝输入提问,得到的回复有好多我根本不可能想到的思路。(其它模型基本只会按照小说本身阅读难度来定计划,没有哪个能从《百年孤独》本身特点来设计,差了好几级。)
第一阶段:绘制家族树的练习对阅读《百年孤独》确实很有帮助,理解隐喻、对比霍格沃兹和纳尼亚的世界观,这些练习也真的很有必要。
第二阶段:挑了双时间线和跳跃时间、但又相对容易读的作品,练习重绘时间轴。这是多么合理的一个基础练习!怎么想出来的?!
第三阶段:开始文化储备,看纪录片《拉丁美洲:被切开的血管》、阅读香蕉公司大屠杀历史,这两条还算正常;分析达利和弗里达的绘画的建议就绝了——我虽然知道、但绝不会有此联想啊。
第四阶段:开始啃硬骨头读《百年孤独》了,给了好些脚手架。最后“孤独博物馆:收集代表不同孤独类型的物品“的建议,太令人击节赞叹。
细想一下,R1 表现这么好也不奇怪:A 给了背景信息,B 描述的是任务目标,从 A 到 B,提示词很简单、但该有的都有了,非常清晰。
指令型大语言模型,通过使用了 CoT 的提示词来提升表现,勤勤恳恳干活,最终得到一个符合预期的结果。
推理型大语言模型,只需要给出明确的起点和终点,中间的路由它自己走。路径中捡到的珍宝,就是它给你带来的认知突破。
看来,如何从 A 推进到 B,这样的句式,对 DeepSeek R1,可以经常用。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-01
2024-09-18
2025-01-08
2024-08-23
2025-01-17
2024-07-26
2024-12-26
2024-08-23
2024-07-02
2024-07-09
2025-03-31
2025-03-29
2025-03-17
2025-02-06
2025-01-10
2024-12-25
2024-11-20
2024-11-13