微信扫码
与创始人交个朋友
我要投稿
ChatGPT诞生一年了,在这一年里面,除了OpenAI版本的GPT大火之外,人工智能给你的生活带来了什么变化?
你已经无须参加各类与编程强相关的课程,GPT就是你最好的编程导师,你甚至都不怎么需要特意准备的提示词就可以顺着好奇心一步步学到很多。但请记住:编程这种技能,你不动手是永远学不会的。下面这一类协作都可以随心所欲,就把GPT当作是你的师傅就好:
助力代码工作:许多基础算法和实现都无须自己重写一遍,就像有经验的程序员往往已经有专属的代码复用库一样,现在只要你提了对的问题,你也拥有了同样的代码库;
代码学习加速:不熟悉的语言,不熟悉的写法,GPT强大的分析+解释能力可以帮到你很多;
安装部署问题处理加速:市面上流行课程的头1-2章节的内容完全可以用GPT生成;
debug加速:冗长的日志,莫名其妙的报错,把关键代码和日志丢给GPT,定位问题所在速度不止翻倍;
开源大法加速:开源大法通常要做的事情就是阅读ReadMe,动手操作,无止境的debug。因为以上第2、第4点,综合起来让GPT配合你去折腾会快很多。当然,由于GPT的数据并非实时全量更新,一些新项目的学习还得靠你自己。
GPT与文字强相关,应用也巨多无比,以下我只总结一些个人使用最多的环节。
头脑风暴:扮演多个专家对话,迪士尼策略,六顶思考帽,左右互搏等等提示词——但如果是你自己非常专精的领域,通常需要许多轮对话才能获得一丢丢灵感;
文字修饰、修改、润色:这部分也无需多说,无非就是给GPT一个专家身份,然后让它帮你分析原则、方法、讨论,然后不断整合微调成一个好用的提示词。如果你想要GPT模拟特定某一种文本风格,前提是需要已有足够语料。比如说想要GPT模拟你自己的文风,这通常难以奏效。因为你给他塞的语料相对于基础大模型背后的语料而言是如此有限。
个人管理与工作任务管理雷同,一般都涉及目标管理与任务管理。与一般炼提示词的方式类似,但更注重格式与你所用的工具相兼容,效果不好的格式通过Python+正则表达式嵌入到工作流程序中即可。
我偏好使用Alfred + Python脚本去构建常用工作流,比如说老板吩咐一个事情,可能只是微信里面的一条聊天记录。这时我只需要选中文本,再按下快捷键,工作流程序就会读取剪贴板,并把老板的任务编写成一条或多条工作任务。然后我再将其粘贴到Logseq里面去。当然这做法的缺点是快捷键很容易记不住。所以后来我又加了一个步骤让GPT自行判断属于哪一种类别,但它判断的精确度实在有点太低。目前用得更多的是生成知识卡片,但需要原始文本中带上“知识卡片”四个字,不然还是很容易会识别成工作任务。现有的一些分类可以参考:
{
"planner":"任务规划:输入文本通常较短,并且明显具备事务属性",
"formalRewrte":"公文写作:输入文本较长,并且多为口语化表达",
"arguement":"角色辩论:输入文本较短,涉及一些需要讨论的问题",
"experts":"专家团:输入文本较短,涉及一些需要解决的较为专业的问题",
"cardgen":"知识卡片:输入文本较长,偏向陈述概念、解释概念;又或是一道考试题目"
}
产品思路与技术思路的拉锯之下,有趣的是什么?
大模型衍生应用巨多无比,大致可以分为以下几类:
智能代理Agent:让GPT自动完成更多事情
工作流Copilot--行业应用:相对专业的应用环节,通常意味着比较特别的输入输出以及可能需要用到经过微调的模型
多模态应用:文生图、视频;语音识别、生成
套壳作品:GPT还没支持到的一些产品巧思
提示词工程:不解释
你可以将基础大模型视作是PaaS层基础能力,然后拿到API之后你可以据此去做各种应用,而其中最简单的就是提示词工程。但若完全将提示词工程类比为基于平台的应用研发,则不够严谨。
PaaS平台能力通常是面向研发工程师设计,而大模型能力则面向普通人,提示词工程会在最上层层不断被整合。
研发工程师要不要基于平台做研发至今仍争论不休,平台乃至各种中台有时是障碍而不是加速器。换句话说,研发工程师有时候使用纯代码更能快速做出应用,平台反而碍手碍脚。而在大模型一侧,完全不会有这样的问题,你再怎么会写提示词,也不可能绕过平台去做事。写提示词本身就是在为大模型作贡献,能拿到最多QA的大模型厂商,效果会越来越好。
你所积累的提示词更有利于你从一个大模型切换到另一个,而并非什么独特技能。只要各家大模型的底层实现相差不大,那你可以在使用各家大模型时获得差不多的效果。这是在大模型时代成本低、门槛也低的一种积累。
大模型时代,编程与软件技术会如何发展?
大模型于编程而言的影响是最大的,考虑这个问题时有两个方向:作为工作一部分的编程,还是作为计算思维锻炼手段。前者是程序员的工作变化,后者是编程小白的学习路径变化。
跟文本生成一样,两个相对底层的逻辑仍然生效:
概率高的未必就是最好的/有趣的
学习情境下AI加工不该完全替代人脑加工
程序员的工作,除了Copilot大大提升效率之外,其他还不会有很大变化。软件项目核心是需求,思考需求如何被解决,跟技术能否实现关系不大(参考乔布斯的思路)。假设GPT广普及,成本低,技术发展仍然难以占据核心话语权。比如你的组织还要考虑:要不要让那么多人失业。一般商业项目,技术壁垒不高,基本上都是业界成熟技术(不成熟谁敢用?),开发人员只要通过预研,测试到效果不错就可拿来用了。
学习编程的框架,仍旧是在原来的框架之下,只不过有了GPT之后你无须再额外雇佣一个“助教”。80%的小白问题你都可以依赖GPT解决。一方面是你要知道编程是一种动手能力,如果什么都让GPT动了你自己不动,那大概率学不到什么东西。另一方面是你需要有“What I cannot create, I do not understand”那种精神,别人做过的,你也做一遍才能理解。
应用大模型,该有怎样的学习节奏?
就像学一门语言一样,有的人擅长边学习边总结整理出相应的语法,有的人则擅长通过大量输入来培养语感。从学习理论上来看,对学习效率而言没太大差异。但前者是一种知识外显,易留存易传播。后者内化更快,易形成直觉,但难以传播。而我通常是后者,擅长自己玩出花,但不擅长拿出来给别人说(主要还是因为懒[狗头])。
最近一年的大半时间里,大多数人包括我可能都变成过于FOMO了。
有新突破,赶紧去试
有新应用,赶紧去试
有牛批提示词,赶紧去试
有新工作流,赶紧去用
有厉害的开源项目,赶紧跑起来 ……
然而,FOMO跟追热点差不多,就像许久之前的区块链,稍近一些的知识付费与个人IP,多少会让人觉得疲于奔命。想想自己电脑里面积攒了多少没用上的相关代码、项目和文本,或许是时候来一波断舍离了。随着大模型的热度降低,我觉得大家会尽可能保留与自身工作生活更相关,更容易切入的应用,这才是合理的节奏。
时间是相互挤兑的。工作、敲代码、读书、写作、准备考试,所有的你都想要,甚至想每天要,那是完全不可行的。但许多人还是高估了自己。如今普遍期待降低的日子,目标不再是越宏大越好,而是越可行越好。你需要专注于短期内要解决的关键问题,围绕该问题做事情,其他尽可能断舍离一下。成就来自于你从无到有地构建些什么,找到某个好奇命题,再尝试自行解答,生产的作品才属于你。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-24
2024-04-24
2024-07-11
2024-04-18
2024-04-19
2024-06-26
2024-06-22
2024-04-05
2024-04-11
2024-06-20