AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


李继刚在知乎总部分享的prompt观(2024)讲座整理
发布日期:2024-12-17 06:46:28 浏览次数: 1641 来源:河狸派



一.李继刚老师对prompt的四级认知

1.1 prompt看做一种编程语言

李老师计算机出身,看到编程语言越来越简单,越来越像自然语言.那把这个逻辑推到极致,何必自然语言呢,就是自然语言行不行?这就是prompt,而大模型就是编译器.

在这种思想下,prompt的写法,就像是在给大模型下指令(注:编程语言的核心就是表现为操作符的指令).

1.2 prompt看做一种写作

然而大语言模型的表现并不像指令那样确定,很多时候仅仅替换几个词语,且整体含义不发生太大变化,大模型的产出质量也天差地别.这里面的不同在哪里?是写作技巧,能不能精确表达出想要的意思.

这种思想下,prompt的写法,就像是字斟句酌的写作,需要对词语用法的敏感.

1.3 prompt看做一种表达

在写作思想下的prompt,会越写越多越写越长(人也累啊,如果这些长prompt能复用还好,对于自己日常对话,需求是临时的复用性也不高),偷个懒只写一些关键词,大模型也能理解,这就与写作不一样了. 这就需要重新思考把prompt当写作这个事情.

写作是为了表达,那表达是什么呢?

  • 表达=本意+文意+解意
  • 本意=经验+词汇+知识

在这个思想下,写prompt成了融入专业经验(你的场景),准确选取词汇,把你的经验表达给大模型的一组操作. 你会发现,大模型很听话,会按照你总结出的经验给你想要的文风(这里李老师举了写小说的例子,给出写作套路,大模型生成小说就能按这个套路来,行文风格也是指哪打哪)

能指挥大模型做到这一步,对很多公司业务场景来说已经足够了.但是这种模式产生的文本,工业化印记严重,对于要做自媒体,建立自己温度和风格的人来说还不够,问题出在生成的文章生硬(我也有这样的体会,帮朋友写过一些公众号文章,给大纲用大模型生成,确实能生成表意准确像模像样的文章,但是这个生成的印记啊,那个大模型体的feel太明显了)

1.4 prompt看做一种共振

如何能让大模型有温度呢?李老师举了个例子,拍戏的时候,导演如何让演员哭.给演员描述一个场景,你相爱了三年的女朋友得癌症要死了,剩下的就交给演员吧,整个过程就很自然.

这是一种什么思路呢?制造一个场,环境场,把大模型当成一个活生生的对象,然后表达需求,这样生成的文本就很自然.这就像是情景对话,特点是有情景对象.人和大模型在同一个场景下,朝着完成一件事的目标做共振.

二.乔哈里视窗下的大模型

乔哈里视窗原本是用于分析人际沟通的工具,这里把沟通对象换成大模型,也能得出一套有效的大模型使用原则.

2.1 界定如何使用大模型

静态地看大模型,我们把与大模型合作处理的信息放入四个象限中,不同的象限有不同的合作模式.

  1. 第一象限(右上): 大模型知道,我们也知道的,prompt里要简单说.说多了,大模型就被限制住了,大模型已知的信息会被抑制,导致效果不佳
  2. 第四象限(右下): 大模型不知道,我们知道的,要用喂模式.告诉大模型你知道的,最好是一组规则,一组方法论.
  3. 第二象限(左上): 大模型知道,我们不知道的,提问题.直接问大模型就好,别的你也给不了.
  4. 第三象限(左下): 大模型不知道,我们也不知道,开放聊.李老师说,这一象限他还没过多涉及,这是留给天才如陶哲轩的.

我们面对的大多数场景,都是处于第一或第四象限.大家通常犯的错误,就是用法给反过来了. 大模型知道的东西,我们啰里啰嗦说了太多;而大模型不知道的东西,我们又说的太少.为什么会这样呢?可能来自于人性吧----懒.大模型知道我们也知道的,通常是比较简单的知识,那写起来就容易嘛;而大模型不知道的东西,通常是专业的知识,总结起来就费劲点.

李老师坦言,他帮很多朋友改prompt,最常见的动作就是删,也就是对第一象限中的问题做删减,释放大模型能力.

2.2 推演大模型加持下的未来

动态地看大模型,这个象限图里的两个边界会如何变化?

首先看横轴,大模型知道的会变多还是变少?这个毫无疑问会变多啊,这就产生一个推论,以弥补当前大模型能力缺陷为核心竞争力的创业工作,地盘会越来越小(cue一下百川智能. ps:在李老师之前一位分享的专家正是来自百川)

再看纵轴.人在大模型加持下,知道的会越多还是越少?有些人会知道的越来越多,有些人会放弃继续学习新知识(反正查问大模型这么方便嘛),会不会有些人原地不动不好说.

你想变成知道的越来越多的人嘛?李老师推荐一个练习方法:

  1. 在晚上下班后放松的时刻,随机从脑袋里抓取一个你关心的概念
  2. 向大模型提问它的含义
  3. 然后质疑这个解释中的漏洞
  4. 如此反复多轮,得到对这一概念的深刻理解

李老师说,自己在大模型出现之前,每晚也就能做两三轮这种推翻重建工作;而使用大模型之后,每晚能做四五十轮.我一直苦于找不到可以展开这种哲学思辨的人来交流,这回李老师可算是给我指明了新方向,同道中人啊.

三.如何培养 prompt 工程师

业界(不太好)的做法,当然也是效果不太理想的做法

  • 从工程师(程序员)转行而来: 对应把prompt看成一种编程语言
  • 从产品经理/运营转行而来: 对应把prompt看成一种写作,写需求文档,写运营诉求

推荐的做法

  • 把prompt看成一种表达: 从编剧,作家,哲学专业的人员而来,效果好一些
  • 把prompt看成一种共振: 想象如何制造情景,调动演员的情绪

然而上面的经验也不是绝对的,只是表达了本能能力与promt能力的关系.专业知识汇集的经验,叠加以下认知,常常能得到出乎意料的好结果(我嗅到了新型专家系统的的味道)

  • 二中乔哈里视窗的象限划分,对不同象限采取不同策略,不再赘述
  • 营造情景,把大模型当做对话对象,生成自然文本

四.如何提升个人prompt能力

人与大模型关系的意象: 人处于多维空间的原点,用prompt选定一个视角,引导大模型朝那个方向看去,然后你看到了什么样的时空?

灵感来自输入,也就是阅读,大量阅读来自各行各业的专业沉淀:Read in, prompt out

多读书,读各个行业的经验,把那些经验总结起来给到大模型,效果出奇的好.

李老师推荐书单

  • [美]斯蒂芬·沃尔弗拉姆(Stephen Wolfram)《这就是ChatGPT》一本很小的书
  • [日] 《深度学习的数学》日本人写的一本通俗解释深度学习原理的书,搞算法的同学基本不必读了
  • 黄佳 《GPT图解:大模型是怎样构建的》
  • 万维钢《拐点》
  • 汤质《关于说话的一切》
  • [美]斯蒂芬·沃尔弗拉姆(Stephen Wolfram)《万物皆计算》

五.我说的都是错的

李继刚最后强调,我说的都是错的.对自我认识的革新会带来强烈的快感,他对prompt的看法也在快速迭代中,希望你也有自己的理解.

观后感

李老师讲完,我感觉现场陷入了一个短暂沉默,大家大概都像我一样内心陷入了震惊与兴奋吧.大模型的世界里见~



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询