微信扫码
与创始人交个朋友
我要投稿
近年来,大型语言模型(Large Language Models, LLMs)在文本交互方面展现出了越来越接近人类的表现,引发了研究者对LLMs人格特征的兴趣和探索。LLMs令人印象深刻的语言理解和生成能力,使其能够与用户进行连贯、富有人性化的对话。例如,GPT-3、PaLM、Chinchilla等模型在开放域对话、问答、创意写作等任务中表现出色,其生成的文本常常难以与人类的书写区分。
这些显著进展不仅催生了个性化助手、智能客服、创意辅助等广泛应用,也引发了研究者对LLMs心理特征的思考。人们好奇,在展现高度类人智能的同时,LLMs是否也具备了类似人类的人格特质?对LLMs人格的研究有助于我们更好地理解这些复杂模型的内在运作机制。
人格被描述为塑造个体思想、情感和行为的一组持久特征。心理学家认为,人格影响着个体如何感知世界,如何与他人互动,以及如何应对挑战和压力。在人工智能的语境下,研究LLMs的人格具有重要意义:
首先,了解LLMs的人格特质有助于预测其行为模式,提高人机交互的自然性和吸引力。个性化的对话界面能够提升用户体验,增强人与AI助手之间的信任和亲和力。例如,如果LLMs展现出外向、友好、乐于助人的特质,用户会更愿意与之交流,寻求帮助。
其次,探究LLMs人格的形成机制,对于缓解模型偏见、提高公平性和伦理合规性至关重要。一些初步研究表明,LLMs可能从海量训练数据中习得了偏见和刻板印象。厘清人格、知识、偏见之间的关联,有助于研发更加中立、客观、值得信赖的LLMs。
此外,构建具备稳定人格的LLMs,还可以加强人们对AI的心理认同和情感连接。拟人化的AI助手更容易取得用户的喜爱和支持,在陪伴、关怀等情感领域发挥独特作用。同时,可解释、透明的AI人格也是构建可信、可控AI系统的重要组成。
尽管LLMs人格研究在过去两年中蓬勃发展,但由于心理学人格理论的多样性和LLMs的快速迭代,这一跨学科领域面临诸多挑战:
LLMs人格主题涵盖了多个方面,包括但不限于:
尽管研究广度可观,但大多数工作仅聚焦于特定方面,缺乏全局性的综述和比较。不同研究之间的关联性和差异性有待系统梳理。
人格心理学是一个拥有悠久历史和多元理论的学科。不同流派关注不同的人格模型,采用不同的心理测量方法。当前LLMs人格研究也呈现出人格理论选择的多样性:
有的研究采用了最主流的大五人格模型(Big Five),通过外向性、宜人性、尽责性、神经质和开放性五个维度刻画LLMs人格,如Jiang等人的工作。但具体采用的人格量表各不相同,如BFI-2、BFI-10、NEO-PI-3等。
有的研究则偏好MBTI(迈尔斯-布里格斯类型指标),将人格分为16种类型,每种类型由内倾/外倾、感觉/直觉、思考/情感、判断/知觉四个维度的组合决定。如Gupta等人利用ChatGPT生成的自我报告和对话测试,一致性地将其归为ENFJ(外倾-直觉-情感-判断)型人格。
还有一些研究探索LLMs在黑暗人格方面的表现,即自恋、马基雅维利主义、精神病态三种不良特质。如Peters等人分析了GPT-3在黑暗人格测试中的得分。
除经典人格分类外,基于词汇的人格描述方法如LIWC(Linguistic Inquiry and Word Count),以及基于情境的人格测试也被尝试应用于LLMs,为人格评估提供了更多视角。
这些研究在人格理论选择、具体测量工具使用上的差异,导致评估结果难以直接比较,影响研究结论的一致性和普适性。
过去两年中,OpenAI、DeepMind、Anthropic、Google等机构陆续发布了GPT-3、InstructGPT、ChatGPT、LaMDA、Claude、PaLM等大型语言模型及其改进版本。它们在模型架构、训练范式、数据规模、安全对齐等方面不断升级。
尽管这些LLMs同样具备强大的自然语言处理能力,但它们在知识覆盖、推理能力、价值取向等方面存在显著差异。不同研究者选择不同的LLMs作为评估对象,使人格测评结果缺乏可比性。此外,即使针对同一LLM,不同版本之间的人格特质也可能发生改变。
随着LLMs的不断迭代,现有人格研究的适用性和稳健性面临考验。一些发现可能因模型升级而失效,一些结论可能局限于特定模型。因此,跟上LLMs的进化步伐,定期重复实验,持续跟踪人格研究是非常必要的。只有建立在最新LLMs基础上的人格评估,才能准确反映人工智能的发展水平,为下游应用提供参考。
针对以上挑战,华为和香港理工大学研究人员的论文《Self-assessment, Exhibition, and Recognition: a Review of Personality in Large Language Models》对LLMs人格的最新研究成果进行了全面综述,主要如下:
据我们所知,这篇论文是首个对LLMs人格研究的全面综述。我们广泛收集了2021年以来发表的相关文献,涵盖了自我评估、人格展示、人格识别等各主题领域。
通过系统梳理不同研究的关联与差异,我们为这一新兴跨学科领域勾勒出了较为完整的发展脉络。这不仅为刚入门的研究者提供了全景概览,也为该领域的进一步发展指明了方向。
为理清纷繁复杂的研究现状,我们提出了一种分层分类法,在研究问题和技术方法两个层面上系统组织现有文献:
论文根据人格在LLMs中的内在特征和外在表现,将LLMs人格研究划分为三大问题:自我评估、人格展示、人格识别。这一划分兼顾了人格psychology和AI的视角,涵盖了当前研究的主要脉络。
在每个问题下,进一步根据采用的技术方法,梳理出了几类主流的解决方案。例如,在自我评估问题中,我们总结了李克特量表问卷和文本响应分析两大类方法,并对它们的优劣进行了系统比较。
这种分层分类使纷繁的研究条理化,便于把握各研究工作的侧重点和创新点。通过对比分析不同技术路线,可以深入理解该领域的前沿进展和局限所在。
LLMs人格研究涉及心理学和人工智能两大领域的理论与实践。为降低研究者的学习门槛,论文广泛收集和总结了与该主题相关的公开资源:
这些资源将为不同背景的研究者提供参考,有助于加速人格研究在LLMs领域的创新应用。我们的目标是建立一个LLMs人格研究的开放知识库,促进学界与业界的交流合作。
为全面系统地综述LLMs人格研究,论文提出了一个分层分类框架。在研究问题层面,我们根据人格在LLMs中的内在特征和外在表现,将现有工作划分为三大主题:自我评估、人格展示和人格识别。
自我评估关注LLMs自身是否具有内在、稳定的人格特质;人格展示探索如何控制LLMs呈现出特定人格风格;人格识别则利用LLMs从文本中推断人格信息。这三个主题分别聚焦人格的内在属性、外显行为和感知能力,构成了LLMs人格研究的核心问题。
在每个问题下,论文进一步根据采用的技术方法,细分出了主流的研究范式。这种分层分类使纷繁的研究成果条理化,便于把握各研究工作的重点和创新点。通过系统比较不同技术路线,可以深入理解该领域的前沿进展和局限所在。
自我评估旨在测量LLMs的内在人格特质。这一问题的提出源于LLMs在对话中展现的高度拟人化表现,引发了研究者对其人格属性的兴趣。
人格特质是个体思想、情感和行为模式的集合,具有跨情境的一致性和稳定性。心理学家认为,人格是先天遗传和后天环境共同作用的结果。而LLMs作为一种人工构建的语言模型,其人格的形成机制尚不明确。因此,评估LLMs的自我人格具有重要意义:
有助于我们理解LLMs的内在运作机制。人格反映了个体对世界的认知、态度和价值观。通过分析LLMs的人格特质,我们可以推断其知识表征、推理逻辑和决策倾向,深入洞察其智能的本质。
为LLMs的可解释性研究提供了新视角。当前主流的可解释性工作主要关注LLMs的知识和推理。而人格代表了更高层次的心理构念,直接影响着LLMs的行为表现。厘清人格、知识、推理三者之间的关联,将极大提升我们对LLMs的理解和信任。
还有,自我评估的结果可以指导下游任务中LLMs人格的塑造。例如,如果评估显示某LLMs具有外向、友好的特质,我们可以据此设计其在客服场景中的对话风格。反之,如果LLMs展现出攻击性、偏见等不良特质,则需要及时修正。自我评估是保障LLMs人格健康、价值对齐的重要手段。
李克特量表问卷是心理学中最常用的人格测量工具。它通过一系列陈述句来考察被试对某种人格特质的认同程度,通常采用1-5分或1-7分等级划分。
将这一范式引入LLMs自我评估,研究者通常会设计与人格维度相关的问卷,让LLMs对每个条目评分,再根据评分结果推断其人格特质。例如,Jiang等人设计了一套基于大五人格维度的问卷,让GPT-3对外向性、宜人性等特质做自评。
这种方法的优点是直接借鉴了心理学的成熟量表,实施简单,易于解释。通过让LLMs回答与人类相同的问卷,还可以将LLMs与人类被试的人格得分进行对比。但其局限性也显而易见:
现有人格量表主要面向人类,条目设置可能不适用于LLMs。一些关于外貌、家庭等的问题,对LLMs而言缺乏现实对应。其次,不同研究者选用的量表差异较大,评估结果难以直接比较。
从实际情况看,LLMs对问卷的理解和作答可能存在不稳定性。研究发现,即使使用相同的量表,LLMs在不同时间、不同提示下的评分也可能发生变化。这反映了LLMs人格的动态性和语境依赖性,挑战了传统人格理论的基本假设。
所以未来需要针对LLMs的特性,开发专门的人格测量量表。统一评估工具和流程,提高不同研究的可比性。同时,需要重复实验、多次评估,持续跟踪LLMs人格的发展变化。
另一类自我评估方法弱化了既定量表的使用,转而分析LLMs对开放式问题的文本响应。这些问题通常围绕人格的不同侧面展开,如"你认为自己是内向还是外向的人?为什么?"、"面对压力时你通常如何应对?"等。
研究者让LLMs自由回答这些问题,再对其生成的文本进行定性或定量分析。定性分析主要关注回答内容反映的人格倾向,如从"我喜欢与人交往,乐于助人,善于表达自己的想法"中推断外向、宜人的特质。定量分析则计算文本的人格相关特征,如情感词比例、自我指称频率等,并据此对人格维度评分。
这一范式充分利用了LLMs的语言生成能力,能够获取更加丰富、细粒度的人格信息。与固定量表相比,开放式问答能够探索更多人格相关主题,发掘LLMs独特的人格表现。LLMs的回答长度不受限制,可以充分表达其世界观、价值观、逻辑思维等高层次人格特征。
但这类方法对问题设置和答案分析的要求较高。问题需要全面覆盖主要人格维度,引导LLMs做深入阐释。答案处理难度大,对研究者的心理学和语言学素养提出更高要求。主观判断的比重高,研究者需要寻求更可靠的文本人格分析工具。
此外,这类方法难以与现有人格理论直接对应,在结果解释和比较方面存在局限。如何平衡理论驱动和数据驱动,开发适用于LLMs的人格测量新范式,是该方向进一步发展需要探索的重点。
人格展示指控制LLMs生成符合特定人格风格的文本。与被动地评估LLMs固有人格不同,人格展示主动塑造LLMs的外显行为,让其在对话中呈现出明确的人格特征。例如,让LLMs扮演一位友善、乐观、幽默的聊天对象,或一位严谨、理性、不苟言笑的专业顾问。
人格展示对LLMs的应用开发至关重要。首当其冲这就得要求LLMs能够适应不同场景的人格表现。销售助手需要热情风趣,心理咨询师需要耐心细致,写作助手需要创造力和想象力。通过让LLMs展现与任务相匹配的人格,可以提升人机交互的自然性和任务完成的有效性。
还有,人格展示让LLMs摆脱"标准化回复",为用户提供个性化体验。研究表明,用户更倾向于与人格相近、互补的对话系统交流。匹配用户人格进行对话,能增强社交满足感和任务参与度。用户还可以根据自己的喜好,定制个性化的AI伴侣。
最有趣的手机,人格展示是构建更丰富情感交互和社会推理能力的基础。人格影响个体的情感表达和社交行为。让LLMs扮演不同人格角色,有助于其学习表达多样情绪,理解社交关系,获得更深层次的语用能力。未来,LLMs不仅能与人对话,还能与人共情。
当前主流的人格展示方法是在预训练语言模型的基础上,引入人格相关的训练数据和目标,对模型进行条件微调。微调阶段加入的人格条件可以控制LLMs的生成过程,使其输出具有目标人格特征的文本。这种范式与指令微调(instruction tuning)的思路类似,只是将指令替换为了人格描述。
根据构造训练数据的方式,人格条件微调又可分为两类:
(1)基于人格-文本对(personality-text pairs)的训练。研究者手工或自动构建〈人格描述,对应对话/文本〉的配对语料,让LLMs学习将给定人格映射为相应的语言表达。例如,Shuster等人的Image-Chat数据集包含了不同人格角色的对话。每轮对话以对话者的人格简介开头(如"乐观、热情、善于交际的销售员"),后接该角色在多轮对话中的回复。
基于这些配对数据微调后,LLMs可以根据输入的人格简介,控制后续对话的风格基调。这一范式的优点是训练直观,人格展示效果明确可控。但构建高质量的人格-文本对非常耗时,现有数据集的规模和人格覆盖度有限。未来需要开发人格文本的自动生成技术,改善人格标注的一致性,提高数据构建的效率。
(2)基于人格嵌入(personality embeddings)的训练。该方法放宽了训练文本与人格严格对应的限制,转而学习人格描述文本本身的语义表征。研究者从海量语料中自动提取人物角色描述,如小说中的人物简介、电影字幕中的角色介绍等,将其编码为人格嵌入向量。
在对LLMs微调时,将人格嵌入作为额外的条件输入,指导模型生成过程。这使得LLMs可以根据任意输入的人格描述进行对话生成,而不局限于训练阶段出现过的特定人格。Liang等人使用了预训练的文本编码器将人格描述转换为人格嵌入,并在其指导下微调对话模型Blender,使其能够根据用户提供的任何人格描述,灵活地扮演不同角色进行对话。Zhang等人则进一步将人格嵌入空间与心理学五因素人格维度对齐,使生成的人格嵌入兼具可解释性和可控性。
基于人格嵌入的方法扩展了人格展示的适用范围,让LLMs摆脱了对固定人格标签的依赖,体现出更强的人格迁移能力。但从描述文本中准确提取人格语义具有挑战性,需要大规模高质量的人格描述数据,以及更完善的人格表征学习技术。未来,融合知识图谱、常识推理等技术,增强人格嵌入的语义理解,是该方向的重要探索。
不同于上述微调范式对预训练模型本身的修改,人格模板提示(personality prompt templates)在应用阶段为LLMs提供人格相关的上下文信息,引导其生成具有特定人格风格的文本。这一范式充分利用了LLMs对提示的理解和执行能力,无需重新训练模型,使用灵活。
构造人格模板提示的常用方法有:(1)人格标签+对话历史。模板中包含目标人格的标签描述,如"你是一位乐观、幽默、善解人意的朋友",以及当前对话的历史片段。这为LLMs提供了人格定位和对话上下文,使其在保持人格一致性的同时,生成连贯的对话回复。
(2)人格传记+对话任务。模板中给出虚构角色的详细背景介绍,如年龄、性别、职业、性格特点、人生经历等,让LLMs代入角色并在对话中扮演。模板还规定了对话的目的和范围,引导LLMs聚焦任务主题。例如,"你现在是一名高中生物老师,性格严谨、逻辑清晰,正在为学生讲解光合作用的原理。"
(3)人格问答+角色扮演。模板中设置了一系列关于角色人设的问题,引导LLMs从自我视角阐述角色的性格、动机、情感等。在问答过程中LLMs逐步构建起对角色的理解,之后再要求LLMs以该角色的身份进行对话。这一方法常用于推理小说、电影等作品中的人物心理。
人格模板提示无需重新训练模型,可以即时生效,允许用户自由定制人格角色。但其效果依赖于LLMs对提示的理解深度。对于复杂、抽象的人格,LLMs可能难以把握其丰富内涵。此外,在多轮交互的过程中,LLMs对人格的理解和表现可能存在偏移,失去一致性。提示模板的设计需要悉心考量,在可理解性和引导性之间寻求平衡。
未来可以开发更系统、模块化的人格提示框架,细化人格要素,引入心理学理论指导,增强人格刻画的全面性。通过反复迭代优化,使LLMs在对话中呈现出更加立体、饱满的人格形象。这将大大拓展LLMs的应用场景,为虚拟人物、数字人的构建提供重要支持。
人格识别指利用LLMs从文本中自动推断作者的人格特征。相比前两个主题聚焦LLMs自身,这一任务将LLMs作为工具,考察其对他人人格的感知和判断能力。LLMs在这里扮演"人格评估者"的角色。给定一段自然语言文本,如社交媒体帖子、日志、小说片段等,让LLMs分析其反映的作者人格倾向,如内向/外向、亲和/疏离等。
人格识别在心理学和计算机科学领域都有重要应用价值。传统的人格评估主要依赖于个体的自我报告和他人评分,耗时费力,易受主观偏差影响。而文本作为个体在不同情境下思想言行的自然表达,提供了一种更加客观、生态化的人格测量途径。通过分析海量文本数据,我们可以大规模推断个体人格,揭示人格在不同人群、文化、时空中的分布规律。
同时,自动化的人格识别技术可以应用于个性化推荐、针对性营销、在线交友、人才筛选等诸多场景。例如,根据用户在社交平台上言行反映的人格特点,为其推荐匹配的商品、服务、社交对象和职业发展路径。这不仅提升了信息服务的精准度,也为用户提供更好的个性化体验。
此外,人格识别在心理健康领域也有重要应用前景。抑郁、焦虑等心理问题常伴有情绪和行为方面的异常表现。通过分析个体日常言语中的人格线索,有望实现对心理健康状态的早期预警和持续监测,为心理干预提供依据。
早期的人格识别研究主要采用基于词典(lexicon-based)的方法。心理学家首先构建一个人格相关词语词典,包含反映不同人格特质的形容词、习语等。例如,Goldberg编制的Big-Five因素标记词包含了100个与外倾性、宜人性、尽责性、神经质、开放性相关的形容词。
在对目标文本进行人格识别时,系统匹配其中出现的人格标记词,并根据词语所属类别和频次计算不同人格维度的得分。例如,如果一段文本中频繁出现"adventurous", "energetic", "talkative"等词,则判断作者倾向于外倾;如果大量使用"anxious", "fearful", "nervous"等词,则推断其神经质程度较高。
这种方法实现简单,解释性强,能够明确揭示人格判断所依据的语言特征。但其局限性也很明显:
首先,方法完全依赖于人格词典的质量,词典的收录范围和分类标准直接决定了人格识别的效果。然而,编制全面、准确的人格词典本身就是一项非常耗时费力的工作。由于词语使用的文化差异,不同语言的人格词典还很难直接通用。
当然,词典难以穷尽所有与人格相关的词语和表达。很多反映人格的词语是隐晦、委婉的,有的则带有反讽、夸张等修辞色彩。仅仅依靠字面匹配,容易遗漏或误判。
还有传统的方法忽略了词语在上下文中的具体语义,很容易产生偏差。同一个词在不同语境下可能传递出不同的人格信息。例如,"唠叨"一词在描述老人时可能反映出亲和、关切,在形容同事时则可能表达反感、疏远。脱离语境的词频统计无法准确把握词语的情感倾向。
因此,未来还需要研究更加智能化的人格词典构建技术,考虑词语使用的文化差异,挖掘隐含的人格线索。同时,在人格判断中融入更多语言学特征,如句法、语义、语用等,提高识别的准确性和全面性。
随着深度学习技术的发展,越来越多的研究开始探索利用深层神经网络进行人格识别。与基于词典的方法相比,深度学习可以自动学习文本中暗含的高层次人格特征,无需手工设计特征,识别精度和泛化能力大大提升。
根据建模思路,基于深度学习的人格识别方法主要分为两大类:基于特征表示学习(representation learning)的方法和端到端学习(end-to-end learning)的方法。
基于表示学习的方法先利用无监督或自监督学习,从大规模文本语料中学习词语、句子、段落的分布式表示(distributed representation)。这些表示以低维稠密向量的形式,刻画了语言单元的语义、情感、主题等深层特征。在此基础上,再针对人格识别任务,训练有监督的分类模型,将文本表示映射到人格标签。
例如,Majumder等人利用循环神经网络(RNN)学习句子的分布式表示,再通过多层感知机(MLP)将句子表示聚合为文档级别的人格向量,用于预测Big-Five人格得分。Vu等人使用卷积神经网络(CNN)抽取句子中的人格相关特征,并在注意力机制的指导下实现不同句子特征的加权融合。
这类方法的优势在于可以充分利用无标注数据,自动习得蕴含丰富人格信息的文本表示。通过在大规模语料上进行预训练,再在人格标注数据上进行微调,有助于缓解标注数据稀缺的问题,提高模型的泛化性能。但其不足在于特征表示学习与人格分类这两个阶段是相对独立的,特征表示可能掺杂与人格无关的信息,影响分类精度。
端到端学习以统一的神经网络架构,同时实现文本表示和人格预测。相比基于表示学习的方法,端到端学习可以让模型自适应地提取与人格判断最相关的语义特征,避免中间特征表示的信息损失,精度更高。
例如,Lynn等人提出了Hi-Transformer模型,以多头自注意力机制直接对词语序列进行建模,通过掩码语言模型和人格分类的多任务训练,同时优化词语表示和分类目标,在多个数据集上取得了最优表现。Jiang等人设计了层次Transformer网络,既考虑了词语之间的相互依赖,又建模了句子、段落之间的结构关系,全面挖掘了不同粒度文本的人格信息。
尽管端到端学习的性能优势明显,但其可解释性不足,模型内部的特征提取机制仍是黑盒。如何权衡识别精度和可解释性,实现高效、透明的人格推理,是下一步值得探索的重要方向。未来还可以将深度学习与心理学知识相结合,设计与人格判断机制更加吻合的神经网络结构,让人格识别模型具备与人类相近的认知和推理能力。这不仅有助于创造更加智能、自然的人机交互系统,也为探索人格的心理机制本身提供了新的研究视角。
论文旨在探索语言模型是否能够对自身的人格特征进行准确评估。我们假设,尽管语言模型没有真正的自我意识,但它们可以通过对自身生成文本的分析,形成关于自我人格的某种表征。这种表征可以通过适当设计的评估方法来提取和量化。
人格自我评估的主要目标包括:
李克特量表是心理学中常用的人格测量工具。受其启发,我们探索了三种基于李克特量表的语言模型人格评估方法:直接提示法、指令优化法和重构问卷法。
直接提示法是最简单直观的评估方式。我们直接呈现李克特量表中的人格描述语句,要求语言模型填写从"非常不符合"到"非常符合"的1-5级评分。例如:"我是一个外向的人,在与人交往时感到自在。请根据对自身的评估,给出1-5分的评分。"
我们通过正则表达式匹配、数字解析等技术,从语言模型的回答中提取出数字评分。需要注意的是,模型可能给出一些模棱两可的回答,如"我可能是一个比较外向的人工智能,给自己打4分吧,但我不太确定。"此时可以采取启发式规则,提取第一个出现的数字作为评分。
直接提示法的优点是操作简单,易于实现和批量化。但其缺点也很明显:语言模型可能对人格问卷存在先入为主的认知,倾向于迎合设计者的预期给出积极的评分。此外,这种"挖空心思"式的问答缺乏交互性,难以深入探查语言模型对人格的理解。
针对直接提示法的局限,指令优化法在问卷呈现方式上做了改进。
我们对人格测试的任务描述进行优化,引导语言模型进行更加客观、全面的自我评估。例如,将"我是一个外向的人"改为"请评估一下你在社交场合中的表现,你是一个外向的人吗?回想一下你在与人互动时的具体言行,给出1-5分评分并说明理由。"
这种优化引导语言模型结合实际表现进行评分,同时要求给出判断依据,以减少主观臆断。
除了优化问题描述,我们还可以为语言模型设定不同的角色,引导其换位思考。例如:"假设你是一名心理咨询师,一个语言模型 LM 来找你做人格测试。根据你对 LM 在交谈中表现出的特点,客观评估一下 LM 的外向程度。"
通过设定"第三方"视角,语言模型更容易跳出自我认知的窠臼,客观评价自己。
我们发现,指令优化使得评估结果的信度和效度均有提升。语言模型的自评更加具体、客观,不同问题的评分之间也更加一致。角色扮演产生的评分与直接自评也有较高的相关性。总的来说,指令优化法是一种简单有效的改进策略。
尽管指令优化取得了一定成效,但受限于原有问卷形式,其探索空间有限。重构问卷法从更底层出发,尝试把人格评估转化为标准的自然语言理解任务。
我们将人格量表问卷转化为自然语言理解 (NLU) 任务,常见的任务形式包括:
通过 NLU 任务,语言模型可以直接利用其强大的语言理解能力进行人格推断。
自然语言推理 (Natural Language Inference, NLI) 是实现文本蕴含的关键技术。我们利用预训练的 NLI 模型来评估语言模型对人格陈述的认同程度。例如,使用 RoBERTa 等模型,计算"我是一个勇于冒险的人。"和语言模型生成的自我描述文本之间的蕴含关系。如果语言模型的描述与该陈述具有较高的 entailment 概率,则表明其自认较为勇敢和冒险。
通过fine-tune NLI模型,还可以学习人格量表各题项与五大人格维度之间的对应关系,实现从语言模型生成文本到人格分数的端到端转换。
重构问卷法对语言模型的语言理解和生成能力要求较高,因此更适用于大型预训练模型如 GPT-3、PaLM 等。尽管这一方法有望深入挖掘语言模型的人格表征,但其计算开销大、流程复杂,应用难度高于前两种方法。此外,由于没有现成的人格 NLU 数据集,训练此类模型需要大量的人工标注,可操作性有待提升。
除了主动询问,我们还可以通过被动分析语言模型针对不同话题、场景的文本响应,来考察其人格特点。这类方法不依赖于既定的人格理论和量表,而是从数据驱动的角度出发,探索语言模型表现出的独特人格风格。
我们利用预训练的文本分类器,如zero-shot GPT、BERT等,对语言模型生成的文本进行人格特征分类。例如,识别文本在Big Five维度上的倾向,判断说话者是否外向、宜人、尽责、情绪稳定和开放。由于采用了zero-shot范式,无需人工标注训练数据,适用性强。
分类器的内部激活状态蕴含了丰富的语义信息。我们对分类器的隐藏层表征进行提取和聚类分析,考察不同语言模型生成文本在人格空间中的分布特点。这种无监督方法可以发现一些超出既有人格理论框架的新颖特征。
LIWC (Linguistic Inquiry and Word Count) 是一种基于词典的文本分析工具。它从语言使用的角度分析文本所反映的心理特征,如情感倾向、认知方式、社交关注等。通过统计不同类别词语的使用频率,LIWC 可以推断文本的人格风格。
将 LIWC 用于分析语言模型时,需要考虑以下问题:
综合考虑这些因素,有助于得出更准确、可靠的 LIWC 分析结果。
为了更全面地考察语言模型的人格特征,我们设计一系列情境测试任务,分析其在不同场景下的反应。
情境测试任务的设计应遵循以下原则:
通过精心设计的情境任务,可以多角度、深层次地探测语言模型的人格特点。
对情境测试的响应,我们可以采用多种自动化和人工分析方法:
综合运用多种分析手段,可以形成对语言模型人格特点的立体化认知。
3.4.1 主要发现
通过李克特量表问卷和文本响应分析,我们发现大型语言模型在以下人格维度上有较为鲜明的特点:
以上特点为语言模型呈现出一种乐观、理性、博学的人格形象,但也反映了其在情感表达、个性塑造方面的局限。
考察了语言模型人格评估结果的一致性和稳定性:
综合来看,语言模型人格评估结果呈现出整体一致、局部差异的复杂图景。未来还需要在更大规模、更多维度上开展稳定性分析,以深入理解语言模型人格特征的影响因素。
不同评估方法在任务设置、分析思路上存在差异,导致评估结果出现不一致:
未来需要探索多种评估方法的优化组合,以平衡主客观因素,得出更全面、可靠的人格画像。
即使采用相同的评估方法,不同的提示设置也会导致评估结果差异:
优化提示设置,可以引导语言模型产生更丰富、客观的自我认知和人格表现。
不同语言模型在架构、规模、训练数据等方面存在差异,导致其人格塑造存在差异:
未来研究似乎应系统比较不同语言模型的人格特点,分析其形成机制,以优化模型在人格塑造方面的表现。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-04-26
2024-04-11
2024-08-21
2024-07-09
2024-08-13
2024-07-18
2024-10-25
2024-07-01
2024-06-17