微信扫码
与创始人交个朋友
我要投稿
前文回顾
上一期我们提到了,现在的 AI 慢慢摆脱了弱人工智能的桎梏,渐渐的朝着强人工智能的方向前进。在这个时代下,很多简单无意义且重复的脑力工作都可能会被取代,并且更重要的是,那些利用AI工具加速学习效率的人很有可能会将那些不使用AI工具的人进行取代。
虽然目前由于能源以及能力的原因,现在的生成式 AI 还远未能够替代我们。但是就像是 20 世纪初出现的互联网改变了我们生活中的方方面面,AI 也可能在互联网的基础上改变我们日常的生活方式。这个时候其实我们也需要去思考,在这样一个新的大环境下,我们要思考如何作出改变从而更好地适应环境。
那首先可以来看看现在的 AI 和人类之间的差别,然后我们可以思考一下如何找到 AI 所不擅长的点并进行取长补短。
就拿最火的 ChatGPT 来举例,虽然其背后的算法就是模仿人类语言理解的编码和解码。但是由于人脑的复杂性以及算法的局限性,即便是基于 Transformer 架构的 ChatGPT 也很难真的能够通过越大越深的模型来真正取代人脑。
我们可以尝试从最基础的回复问题讲起,人类正常的说话是通过大脑的思维完成的,我们当接收到一个问题的时候,大部分的情况下都是依靠潜意识来自动进行回复的。只有极少数情况下我们才会调用出自己的主观意识,比如说“这个问题让我再仔细想想”,来进行回答。这主要是因为这种主动思考的模式会极大的消耗我们的脑力,当非常集中的思考一段时间后我们就会非常的疲惫。
但是ChatGPT说话的方式是通过计算每个字的概率决定的。比如说我们在输入一大段问题后,ChatGPT会通过这个问题作为上下文来计算出下一个字最有可能是哪一个,然后输出一个字后再将这些问题结合输出的第一个字作为上下文再猜第二个字应该是什么。就像是一个填词器一样,其永远是在猜下一个字最有可能是哪一个,当猜到最有可能是一个特殊的结束符的时候,这个句子就输出完成了。
从这里也可以明显看出,AI与人类之间的另一个关键区别在于处理信息的方式。ChatGPT 这种依靠深度学习算法的模型实际上是依赖于大量的数据训练和统计学习方法来“理解”语言,其输出的内容仅仅基于之前训练过程中学习到的模式。假如我们让模型的随机性为0的时候,那我们只要问相同的问题,模型都会给我们一模一样的回复。
而人类则是通过经验、情感、直觉等多维度的复合因素来进行语言表达和思维推理。即便是同一个问题,我们可以根据不同的环境、场合、氛围给出不同的答案,这也展现出我们大脑强大的可塑性。并且人类的思维能够产生创新和创意,即便是一些我们没有面对过的场景,我们也能够做出一些比较符合的决策。而AI目前还不能做到这一点,它在面对没有经过训练的新情况时,其表现往往不如人类灵活。
还有一个不容忽视的差异是情感和意识。人类的情感是复杂且深刻的,影响着我们的思维和决策过程。人类的意识和自我意识能力,使得人们能够进行自我反省和主观体验。而AI目前尚不能真正理解或体验情感,它所表达的“情感”仅仅是根据训练数据模拟出来的反应。
虽然AI在回复的模式上比较固化,但是不可否认的是AI的学习能力是极其强大的。就比如说我们常常将大语言模型用于总结文章一样,大语言模型在几秒钟之内就能把所有的上下文读完并且给出一个还不错的总结出来。而人类假如想要读完一本这样的书可能需要花费几天的时间。这种效率上的差异也是非常惊人的。而且像是人脸识别这样的工作,让人类来看可能几秒钟能够审核一张图,但是假如让AI来看的话可能就几毫秒就可以看完一张图并且判断是否正确的。因此我们假如和AI拼死记硬背或者一些具有明显规则的任务的话我们必然是落入下风的。
总的来说,虽然有着强大计算能力的AI在快速阅读、学习以及处理信息的能力上比我们人脑要强大许多,但是在情感以及意识方面人脑还是有着绝对的优势。AI更适合在已有的规则下进行进一步的深入及拓展,即1-100的工作。但是对于一些创新性的工作,即从0到1,还是需要人类去进一步的研究和探索。
那在我们看到AI与人类之间本质的差异后,下面我们来聊聊看如何能够与AI进行取长补短,从而在这极度内卷的当下来占领一处属于我们的浅滩。
1. 工具的选择
在这个迅速发展的AI时代,我认为找到自己合适的AI工具其实非常重要。每个职业、每个行业、甚至不同的地区可能都有能够提升自己生产力的AI工具。现在可能都已经有成百上千款大小各异的模型推出,无论是像微软还是谷歌这种大公司,还是说月之暗面这种初创企业,其实都推出了自己的模型。在这么多形态各异的模型之中,我们要做的其实是对这些模型有一些基础的了解,然后根据自己的需求选择合适的模型,然后形成属于自己的工具链。
大家可能会觉得说,模型难道不是选择越多越好吗?一定程度上,越多的模型其实会促进整个人工智能市场的繁荣,但是我们真正需要使用的时候,我们会觉得只要够用就行。太多的选择反而会让我们把精力消耗给了选择上,而让我们真正需要专注的事情反而效率降低了,这样自然就得不偿失了。
就像文本生成模型,无论Claude3的推出还是说Genimi Pro的推出其实都很难去撼动OpenAI的GPT-4的地位。一方面是GPT-4的能力目前从各方面的测试来看都是由于其他的模型,更为重要的是GPT-4有着先发者优势。一旦人们已经习惯了将ChatGPT当作日常工具链条的一部分,那这种习惯其实就不太容易被改变(除非网络原因无法使用)。理论上来说,越大越强的模型通用性就越强。就比如说GPT-4,其能够做的事几乎所有NLP领域相关的事情,并且可能做的效果会更好。我们很多时候可能会关注GPT-4的中文能力会不会比国产的大模型(比如说Kimi或者ChatGLM或者文心一言)要差,但是从实际体验上来说,其实我感觉GPT-4在绝大多数中文的问题上回答的效果其实都是很不错的,可能在很专业的像文言文或者写古诗这类非常专业的内容上会差国产的大模型一些,但是总体而言我们其实不需要考虑这部分的问题,就认准最强的模型来用就基本不会错了。
那文本生成模型中也有大量的开源的大模型,这些大模型由于其能力相对较弱一些,所以其更多的是一些娱乐性质的,比如说之前书生浦语实战训练营中的一些微调项目,包括八戒、嬛嬛等等的角色扮演。那还有就是能够用于数据的生产方面的工作。所以虽然其不能够像GPT-4这样的模型用于日常的交流对话当中,但是在其他一些任务方面也是非常使用的。
除了文本生成模型以外,这里我也可以说一些常见的AI工具,包括说艺术设计等专业可能会使用像是Stable Diffusion和MidJourney或者OpenAI推出的DALL.E。这里面每个工具都有其所擅长的部分,比如说Stable Diffusion由于其是开源的,因此我们可以自己训练一个特殊风格的模型。那MidJourney在绘画方面的能力其实是相当强的,但是就是无法定向修改部分的内容,而且还有一个很大的问题就是收费比较贵。而DALL.E则是与GPT-4深度的进行绑定,我们只需要买OpenAI的Plus会员就可以来使用。同时整体的操作非常简单,我们只需要用自然语言对话即可,并且还支持定向区域的修图功能。但是出图的效果没有MidJourney好。
除了文本生成以及画画以外,目前的生成式AI其实已经渐渐蚕食搜索方面的市场了。我们现在有一些想问的问题,可能都不会说直接去搜索引擎搜索然后一篇篇来看从而找到答案,而是直接交给一些专业的AI搜索引擎,包括New Bing、Plexility来进行资料的查找。由于文本生成模型可以直接给出我们想要的答案,所以也是在整体的搜索效率上有极大的提升。但是有些事实性的信息以及实时的信息,我们还是需要去审核一下,毕竟大语言模型是以概率来进行回复的,出问题的概率也是不小的。
上面其实就是提到了一些常用的AI工具,大家也可以去尝试来使用。对于我来讲,由于我其实主要使用的还是文本生成方面的工作,因此我主要也就是使用GPT-4或者Kimi来完成日常的文字润色写作以及资料搜集提问工作。假如我想要让模型基于某一些背景下与我长时间的对话,那我其实也只需要构建一个GPT-s的专业模型即可。其他的这些模型也只是尝试体验和使用过,并没有真正的融入生活中去使用。但是这其实就足够了,我们真的其实只需要在任务实施的时候想到到底哪个好用就够了。
AI说到底也就一个辅助我们日常工作的工具罢了,我们真正需要关注的任务本身,因此如何解决任务才是最根本的事情。无论是最基础的工具,还是说新潮的AI工具,能完成就。就像是做一场手术一样,不是工具越多越好,而是找一把合适的手术刀精准切开就行。我们还是要找到标杆类型的产品才能够让我们找到一套稳定的组合从而减少思考的负载,太多的选择反而容易让你迷失。
未完待续...如果点赞超过10,我们再更下期?
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-04-26
2024-05-10
2024-04-12
2024-05-28
2024-05-14
2024-04-25
2024-07-18
2024-04-26
2024-05-06
2024-12-22
2024-12-21
2024-12-21
2024-12-21
2024-12-21
2024-12-20
2024-12-20
2024-12-19