AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI时代下的品质(下)
发布日期:2024-05-10 21:37:38 浏览次数: 1772


SmartFlowAI


点击上方蓝字关注我们


作者:李剑锋,全文约 7000 字,预计阅读时间 18 分钟

上一期的讨论中,我们深入探讨了 AI 时代下人类如何适应并利用 AI 工具来提升个人能力。我们了解到,尽管 AI 在处理信息、学习和执行任务方面拥有惊人的效率,但它在情感、意识和创新性工作上仍然无法与人类相媲美。我们强调了掌握 AI 工具使用的重要性,并指出选择合适 AI 工具的必要性,同时讨论了 AI 工具在文本生成、艺术设计、搜索引擎等方面的应用,以及如何通过构建个人工具链来提升生产力。

在本期文章中,我们将延续上一期的讨论,进一步探索如何更有效地利用AI工具,并发展人类在AI时代下不可或缺的核心技能。我们将讨论以下几个关键点:

  1. 学会提问:掌握“提示词工程”技巧,通过改善提问来提升AI的输出效果。
  2. 项目式学习:通过主动提问和项目实践,培养解决问题的能力,提高学习效率。
  3. 创新和想象力:强调知识与想象力的结合,以及跨学科学习和开放心态在创新中的重要性。
  4. 与人沟通的能力:认识到AI在情感交流方面的局限,发展深度的人际交往技能。
  5. 审美力:探讨审美思维在人类认知活动中的独特性,以及它在创造性实践中的作用。
  6. 批判性思维:在信息泛滥的时代,批判性思维对于辨别真伪和逻辑严密性的重要性。



需要掌握的品质

掌握AI工具的使用

2. 学会提问

    那在我们了解了 AI 的工具链条了以后,如何用好 AI 也是我们需要考虑和解决的问题。我们知道现在大部分的生成式 AI 都是基于我们的自然语言进行交互的,常见的模式就是我们提出一个问题之后,大模型返回一个答案。假如我们想要大模型的输出能够符合我们的要求,我们其实就需要从我们提问的问题下手,通过各种方法来完善我们的提问,从而让其生成更好的输出。

    那这种通过改善提问提升大语言模型输出效果这个事情,现在也被当作一门名为"提示词工程(Prompt Engineering)"的学科进行研究。当然其实和上面选择模型的思路是一样的,对于我们日常生活使用也不是越多方法越好,而是要选择我们认为效率最高的方法。不同的提示词工程方法有其不同的使用场景,有的是针对于应用构建的,也有的是针对于日常使用的,还有的是针对于测评的。我们日常使用其上就是要找准那些简单,实用的提示词策略。下面我也给大家推荐几个我常用的方法:

  • 提供详细的背景

    首先我觉得在提问中最重要的就是给一个背景。背景就是告诉大模型一些基础的信息,让其在这些基础信息的情形下给出最合适于你的回复。就比如说你想让 ChatGPT 写篇专业的学术论文,那必然需要的是言简意骇且专业性强的文字才比较符合。那假如你是想让 ChatGPT 写一篇发在小红书的推文,你可能需要的就是那些表情比较多的,且写起来很有趣的文章内容。

    在编程领域的话,提供背景其实就是提供你目前身处的计算机环境中,这其实之前在 GitHub 发的一篇技术类问题提问中就已经提到过,这也是我们日常问技术类问题的基础,假如你不能说清楚,那技术人员也很难精准的进行复现找到实际问题的所在。这些背景就包括说你是在 Linux 系统中开发的,还是在 Windows 系统里,还是说 Mac 环境里;你的 Python 版本是 1.x 还是 2.x 还是 3.x;你所用的某个库的版本是什么等等诸如此类的东西。只有提供了这些背景信息,ChatGPT 才能够真的很全面的进行回复,而不是需要一次次的修改最终给出正确的代码,那这样的效率显然就太低太低了。

    总之,说清楚背景其实是非常非常重要的,我们在日常的生活中也其实需要养成这样的习惯。说不清背景就相当于你没有填平你与他人所理解的鸿沟,那对方也真的很难真正的和你进行沟通。假如你的朋友不知道你最近发生了什么,但是就听到你和他吐槽,这样无论谁都会很懵逼对吧,对大语言模型也是一样的,你就把他当成你的朋友,尽可能把事情说清楚吧!

  • 给出需要输出的示范案例

    除了提问的时候给背景这种比较常规的以外,我们还有一点很重要要做的就是假如我们有特殊格式上的需求的时候,我们需要准备且明确的告诉大模型,并且给出一个或者多个示例。

    就比如说我我让其写一篇稿子,然后我没有说任何东西,大模型可能哐哐哐就开始写出来了。但是其实我期望的是要 Markdown 格式的,那这个时候我们在问问题的时候就要加上一句“请输出 Markdown”格式的文本,这样大语言模型就能够根据我们的指令来做。或者说我们给出一段“Markdown”格式的问题和他说去模仿这个文体来写。这样都可以大语言模型意识到需要用特定的格式输出。

    假如我们能够给出一个完整的对话对,就是包含了 QA 两部分的内容的时候,这个也常常被称为是“few-shot prompting” 或者 “Chatin-of-Through Prompting”的提示词工程技巧。

    比如说下面这个例子,大语言模型会根据上面的 QA 来给出相对应的答复:

? 输入的内容:

Q:“whatpu”是坦桑尼亚的一种小型毛茸茸的动物。一个使用 whatpu 这个词的句子的例子是:
A:我们在非洲旅行时看到了这些非常可爱的 whatpus。

Q:“farduddle”是指快速跳上跳下。一个使用 farduddle 这个词的句子的例子是:

✏️ 输出的内容:

A:当我们赢得比赛时,我们都开始庆祝跳跃。

    但是假如说给的案例还不能够满足任务的完成,那我们可能还需要调整一下给出更完整的示例。比如说下面这张图所展示的,就是一开始给了一个示例,但是还是没有答对,但是当我们增加了示例回复的细节以及对应的思维链条,这样就答对了。从这也可以看出来给出合适且正确的示例的重要性。

    那即便是我们没有案例可以给,增加一句“Let's think step by step”也是会有更好的效果。这个也被我们称为是“Zero-Shot Prompts”。

  • 将问题写清楚

    那即便是我们有了案例,有个背景,还有一个很重要的就是我们这个问的问题其实真的需要足够的清晰。你需要自己真的想清楚你想问的是什么东西。假如你本身对一个方向就很迷茫不知道要问什么,你不应该把你乱糟糟的思绪都写进去,这样只会让大语言模型感到困惑不解,从而给不出你想要的答案。你在问问题之前都需要自己稍微捋清楚问题和想法。当然这个过程你可以让大语言模型陪你一起去做,包括说让其帮你整理,帮你归纳想法,帮你找找资料等等。但是最终问问题之前一定要想清楚要问的是什么,不然很难给出你想要的答案。

    比如说我们假如想让其帮我总结,那我们其实就直接和它说帮我总结一下上面的文件或者内容。假如想翻译就直接说请翻译一下这部分内容。假如想写一个什么样的脚本,就直接说请帮我基于上面的要求生成脚本。说话要清晰明了而不是支支吾吾的。

    另外由于大语言模型几乎很难进行长输出以及深度思考,因此你也需要将一些很大的问题拆分成一个个小的问题来问大语言模型,这样才是正确的使用方式。假如你一次就让其给你写完一篇论文,这样几乎不太现实。所以让 AI 辅助写论文的一个正确方式是你先让 AI 根据你的题目出个大纲,然后你自己修改一下再丢一个大点给 AI 让其给你生成该大点下的一连串小点,然后再让其对每一个小点进行撰写。这样写出的文章才不至于那么拉胯。当然中间还是需要很多自己加工的内容,但是最后我们都可以让 AI 帮助我们来进行润色处理。

    总的来说,其实提问是一个非常简单的事情。我们只要有不懂的点,我们其实就会去提问说要怎么解决。我们以平常与别人相处的方式来对大语言模型进行提问同样是一件可行的事情。只不过就是与不同的人相处会有不同的提问方式,有些人觉得这样提问会让它舒服,有的人决定另外的方式提问会让其舒服,那 AI 自然也有让其舒服的聊天方式。我们其实现在研究提示词工程的本身就是在研究如何能与机器人更加舒服的进行聊天输出。所以学会与大模型提问聊天是非常重要的技巧,后续也会有专门一篇文章来详细阐述这方面的内容。

3. 项目式学习

    即便是我们知道了如何向大语言模型提问,但是对于大部分的中国学生而言,平日里做的最多的事情其实就是上课听老师讲课。在这种情况下我们很多时候都是被动式的听课学习,其实很难培养起主动提问能力。假如不能够主动的去提问,那就只能是去网上看各种的课来慢慢记笔记来学习,这种情况下我们就很难真的把大语言模型用起来加速学习。

    那为了提高这种主动提问的能力,我们要做的其实就是去以项目的方式进行学习和提问。比如说我想要学习用 python 来做数据分析,当然在前期对一些基础的知识,比如说函数等内容还是需要通过一些基础的课程来了解一下。但是有了一些基础的知识后我们就应该快速的去上手实践。一旦我们真实的面对了一些项目的时候,我们就不能再进行被动式的听课了,而是需要真的去尝试去解决问题。

    一个好的方式是去复现别人所做的项目,比如说别人用了什么样的方法解决了什么样的问题,我们可以尝试将其用的方法转移到我们自己的数据集上进行尝试,这样的话我们也能够真正的实践如何解决一个自己领域种的问题了。

    在解决问题的过程中我们不可避免的会犯各种错误,这个时候面对错误我们除了可以自己思考如何解决以外,我们其实还可以通过向大语言模型提问,从而其力量来快速定位问题以及解决问题。这样我们就会因为项目的推进而不断提出新的问题,并且借助各种力量来进行解决。这样我们就摆脱了低效率的被动学习模式,而进入了高效的主动学习模式。

    就像下面这张很经典的关于学习内容平均留存率的图,我们可以看到我们常常在课堂上所使用的被动学习模式(听讲、阅读、视听、演示)的留存率只有 5%-30%,但是我们上面所使用的项目式实践的主动学习方法能够达到 75%。并且假如我们完成项目后还把知识和内容教会给别人的话,我们的留存率甚至能够到达 90%

    所以我们就可如我们个人想要更好的利用大语言模型提升我们整体的学习效率,一个比较好的方式就是真正的去实践。正所谓实践才能出真知,我们只有真正的去使用,去面对真实的问题和环境,我们才能够真正的获得成长。

创新和想象力

    在上面 AI 与人类的对比里我们也提到过,AI 擅长在既定的规则下完成工作,那作为我们人类而言,那当然是需要在创新力和想象力上重点突破。创新并非一味地追求独特,而是破旧立新的意愿与扎实知识的完美结合。创新,让我们突破常规,实现从无到有的创造。

    那假如我们想要拥有创造力,其实是要有两个前提条件,那就是知识以及想象力。知识是一切的基石,假如我们的知识不够扎实,即便我们再有想象力我们也是空中楼阁。但是光有知识没有想象力的话,我们也仅仅只能做到在原地打转,很难再前进一步。这是因为因为真正的创造力往往需要我们跳出思维的舒适区,将看似不相关的知识和想法结合起来。

    那我们假如希望能够跳出思维的舒适区,一个非常重要的办法就是在原有领域打好了扎实的基础后,接触跨学科的知识来获得更多的灵感从而产生突破。之前我们也提到过,大语言模型的知识其实都是比较浅层的知识,我们假如寄希望于大语言模型能够构建我们本学科完善的知识体系,这是一件非常困难的事情。但是大语言模型能够加速我们对跨学科知识的掌握,让我们快速的、通过各种方式的了解其他领域里最重要的知识。

    那除了了解其他学科的知识以外,我们其实还需要拥有开放的心态。在遇到新的观点的时候其实不应该下意识的去否定,而是先听完整体的逻辑后批判性的提出自己的质疑和问题,假如认为整体逻辑上没有什么问题,我们就可以去思考能不能有什么方式去整合。保持开放心态和好奇心则有助于我们拓展视野、激发想象力,从而更好地结合知识与想象力进行创新。

    另外,其实在一个充满创新氛围、鼓励尝试和接纳失败的环境,能够更好地激发人们的想象力。这种环境不仅包括物理空间,如创意工作室、艺术工作室等,还包括社会文化背景、组织文化和管理方式等。在这样的环境中,人们更容易摆脱传统的束缚,敢于提出大胆的设想和实验。

    其次我们也需要经常进行自我的反思,去审查自己的思维模式、习惯和方法,发现其中的局限和不足。在此基础上,我们可以尝试突破自己的舒适区,挑战新的领域和问题。这种自我突破的过程往往伴随着心理上的不适和困难,但正是这种挑战促进了我们的成长和创新。通过反思与自我突破,我们可以不断优化自己的知识结构和思维方式,使想象力和知识更好地结合,从而提升个人的创造力。

    总的来说,创造力的知识与想象力结合需要我们从多个方面入手:既要有广泛而深入的知识储备,又要敢于跨越学科的界限;既要营造有利于创新的环境,又要不断反思和突破自我。如此,我们定能在面对挑战时充分发挥创造力,找到独一无二的解决方案。

与人沟通的的能力

    假如我们和 ChatGPT 真实的聊过天,我们就会知道我们其实真的蛮难在 ChatGPT 身上找到与朋友一样的聊天体验。虽然 ChatGPT 已经能够有逻辑的输出很多的文字和内容,但是在感情方面仍然很难真的替代真人的体验。即便是现在已经有很多关于感情方面微调的项目,比如说 EMOLLM 这类希望能够专门解决心理健康的大模型,但是实际上还是很难真的能够动摇心理医生的作用。

    之所以大型语言模型无法完全代替人类的情感交流,主要原因在于这些模型主要是基于大量文本数据训练而成的。而人类的情感交流不仅包括文字,还涵盖听觉、触觉、嗅觉和视觉等多种感官体验。这些复杂的感知和体验在模型训练过程中是缺失的,因此模型的回应往往只能遵循一种传统的模式。此外,我们向模型表达情感时,通常也只能通过文字,而文字表达情感的能力是有限的。例如,在情绪崩溃时,人们可能只会哭泣,而不会将感受写成文字。即使是现代的语音转文字技术,也难以准确捕捉和反映说话者的情绪,使得通过语音传达情感仍然是一个挑战。

    在未来,即便 AI 与机器人能够完美的结合,除非其能够真的像电影里那样能够突破算法产生出真实的意识,不然还是基于一套模式运行下的机器人真的很难与人类进行深入的交流。在拥有自我意识之前的 AI 也只能够作为我们的一个工具而非真实的情感寄托,我们还是需要大量的与真实的人所接触。所以拥有好的沟通能力、感同身受的能力、换位思考的能力来与他人产生深度的链接是极其重要的。

审美力

    迄今为止,AI 的认知方法基于概率思维。人的大脑活动还有情感思维、直观思维和审美思维。特别是在审美思维方面,大脑的审美冲动来自于刹那间兆亿次的神经元放电。它有极大的偶然性。概率思维在与必然性和或然性相关的知识领域有绝对优势。人越来越无法与 AI 竞争。但是,涉及到审美冲动的偶然性,它不在概率思维统治范围内。因此,与审美冲动相关的审美信息就具有人的认知活动独特性。许多专家类别的隐性知识也与专家的审美冲动有关。它无法全部被编程,只能个人理解,不能完全向大众解说。如此,人的审美活动和创造性的实践是 AI 无法比拟的。

    此外,审美力在促进人类创造性思维方面的作用不可小觑。创造力往往来源于对世界的独到见解和非凡想象,而这些往往是在个体的审美体验中孕育而生。例如,一个设计师的灵感可能来自于对日落色彩的感悟,一个作家的故事创意可能源于对特定艺术作品的审美感受。这种由内而外的创造过程,依赖于人类情感的深度和复杂性,是 AI 难以达到的。

    在未来,随着 AI 技术的不断发展,我们可能会看到更多 AI 与人类在审美和创造力方面的合作,但人类的审美力仍将是这种合作不可或缺的核心。维护和发展人类的审美能力,不仅有助于保持文化的多样性和深度,也是确保技术发展服务于人类福祉的关键因素。因此,在 AI 时代,重视并培养个人和社会的审美力,是我们不应忽视的重要任务。

批判性思维

    在这个信息泛滥的时代,拥有强大的逻辑思维和批判性思考能力显得尤为重要。如今,网络上已经泛滥着各种由人工智能产生的虚假新闻和消息。如果我们不进一步审查这些信息,可能很难识别出其中的错误和漏洞。因此,我们需要具备优秀的批判性思维和判断能力,以确保接收到的信息是真实可靠的。

    然而,即使是目前最先进的人工智能语言模型,如 GPT-4,也难免会在逻辑上出现问题。例如,我的对象是福建省专家评委库的辩手,他曾希望利用 GPT-4 帮助他编写一份辩论稿。但是,当 GPT-4 输出完成后,他发现稿件中存在诸多逻辑漏洞,未能精准地回应辩题要求。这一现象表明,即便是较为强大的模型,在逻辑处理能力上仍有很大的提升空间。

    目前的人工智能更多的是像一个拿着词典和百科全书进行翻译的人——其中算法充当词典,数据库则是百科全书。当我们向其提出问题时,AI 实际上是从其数据库中提取信息,并结合算法进行“翻译”。这种处理方式意味着 AI 可能并没有真正理解问题的本质,而仅仅是根据数据库和算法进行响应。因此,尽管 AI 在处理大量数据和信息方面显示出惊人的能力,但在理解和处理逻辑复杂的问题时,它仍需要人类的辅助和指导。


总结

    综上所述,虽然 AI 技术带来了许多便利,但同时也存在一定的局限性。我们应当清醒地认识到这些局限,并通过持续学习和适应,发展那些 AI 难以取代的核心人类技能,以保持在技术不断演进的未来中的竞争力和创新力。在 AI 的帮助下,结合人类的独特能力和深度思考,我们可以更好地面对未来的挑战和机遇。

?我们期待与读者共同探讨如何在 AI 的辅助下,更好地发挥人类的潜力,以及如何培养和维持那些 AI 难以取代的核心技能。通过深入分析和实践,我们可以更清晰地认识到 AI 的辅助作用,并在 AI 时代下找到人类的独特价值和发展空间。

扫码加入我们的【机智流大模型交流群】吧?


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询