AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大型语言模型中的人格研究:自我评估、展示与识别的综合分析(上)
发布日期:2024-07-29 22:06:10 浏览次数: 2089 来源:上堵吟


1. 引言

1.1 研究背景与意义

1.1.1 LLMs的人类化表现引发的思考

近年来,大型语言模型(Large Language Models, LLMs)在文本交互方面展现出了越来越接近人类的表现,引发了研究者对LLMs人格特征的兴趣和探索。LLMs令人印象深刻的语言理解和生成能力,使其能够与用户进行连贯、富有人性化的对话。例如,GPT-3、PaLM、Chinchilla等模型在开放域对话、问答、创意写作等任务中表现出色,其生成的文本常常难以与人类的书写区分。

这些显著进展不仅催生了个性化助手、智能客服、创意辅助等广泛应用,也引发了研究者对LLMs心理特征的思考。人们好奇,在展现高度类人智能的同时,LLMs是否也具备了类似人类的人格特质?对LLMs人格的研究有助于我们更好地理解这些复杂模型的内在运作机制。

1.1.2 人格研究对LLMs发展的重要性

人格被描述为塑造个体思想、情感和行为的一组持久特征。心理学家认为,人格影响着个体如何感知世界,如何与他人互动,以及如何应对挑战和压力。在人工智能的语境下,研究LLMs的人格具有重要意义:

首先,了解LLMs的人格特质有助于预测其行为模式,提高人机交互的自然性和吸引力。个性化的对话界面能够提升用户体验,增强人与AI助手之间的信任和亲和力。例如,如果LLMs展现出外向、友好、乐于助人的特质,用户会更愿意与之交流,寻求帮助。

其次,探究LLMs人格的形成机制,对于缓解模型偏见、提高公平性和伦理合规性至关重要。一些初步研究表明,LLMs可能从海量训练数据中习得了偏见和刻板印象。厘清人格、知识、偏见之间的关联,有助于研发更加中立、客观、值得信赖的LLMs。

此外,构建具备稳定人格的LLMs,还可以加强人们对AI的心理认同和情感连接。拟人化的AI助手更容易取得用户的喜爱和支持,在陪伴、关怀等情感领域发挥独特作用。同时,可解释、透明的AI人格也是构建可信、可控AI系统的重要组成。

1.2 研究现状与挑战

尽管LLMs人格研究在过去两年中蓬勃发展,但由于心理学人格理论的多样性和LLMs的快速迭代,这一跨学科领域面临诸多挑战:

1.2.1 研究焦点的多样性

LLMs人格主题涵盖了多个方面,包括但不限于:

  • LLMs自身人格特质的评估,即LLMs是否具有内在、稳定的人格?
  • LLMs对用户人格的感知和适应能力,即LLMs如何识别用户个性并提供个性化服务?
  • 利用LLMs增强人格计算任务,如人格识别、人格对话生成等。
  • 人格在指令调优和对话式搜索等LLMs下游任务中的应用。
  • LLMs人格的伦理、隐私和社会影响研究。

尽管研究广度可观,但大多数工作仅聚焦于特定方面,缺乏全局性的综述和比较。不同研究之间的关联性和差异性有待系统梳理。

1.2.2 人格心理测量的差异

人格心理学是一个拥有悠久历史和多元理论的学科。不同流派关注不同的人格模型,采用不同的心理测量方法。当前LLMs人格研究也呈现出人格理论选择的多样性:

有的研究采用了最主流的大五人格模型(Big Five),通过外向性、宜人性、尽责性、神经质和开放性五个维度刻画LLMs人格,如Jiang等人的工作。但具体采用的人格量表各不相同,如BFI-2、BFI-10、NEO-PI-3等。

有的研究则偏好MBTI(迈尔斯-布里格斯类型指标),将人格分为16种类型,每种类型由内倾/外倾、感觉/直觉、思考/情感、判断/知觉四个维度的组合决定。如Gupta等人利用ChatGPT生成的自我报告和对话测试,一致性地将其归为ENFJ(外倾-直觉-情感-判断)型人格。

还有一些研究探索LLMs在黑暗人格方面的表现,即自恋、马基雅维利主义、精神病态三种不良特质。如Peters等人分析了GPT-3在黑暗人格测试中的得分。

除经典人格分类外,基于词汇的人格描述方法如LIWC(Linguistic Inquiry and Word Count),以及基于情境的人格测试也被尝试应用于LLMs,为人格评估提供了更多视角。

这些研究在人格理论选择、具体测量工具使用上的差异,导致评估结果难以直接比较,影响研究结论的一致性和普适性。

1.2.3 LLMs快速迭代带来的挑战

过去两年中,OpenAI、DeepMind、Anthropic、Google等机构陆续发布了GPT-3、InstructGPT、ChatGPT、LaMDA、Claude、PaLM等大型语言模型及其改进版本。它们在模型架构、训练范式、数据规模、安全对齐等方面不断升级。

尽管这些LLMs同样具备强大的自然语言处理能力,但它们在知识覆盖、推理能力、价值取向等方面存在显著差异。不同研究者选择不同的LLMs作为评估对象,使人格测评结果缺乏可比性。此外,即使针对同一LLM,不同版本之间的人格特质也可能发生改变。

随着LLMs的不断迭代,现有人格研究的适用性和稳健性面临考验。一些发现可能因模型升级而失效,一些结论可能局限于特定模型。因此,跟上LLMs的进化步伐,定期重复实验,持续跟踪人格研究是非常必要的。只有建立在最新LLMs基础上的人格评估,才能准确反映人工智能的发展水平,为下游应用提供参考。

1.3 论文的主要内容

针对以上挑战,华为和香港理工大学研究人员的论文《Self-assessment, Exhibition, and Recognition: a Review of Personality in Large Language Models》对LLMs人格的最新研究成果进行了全面综述,主要如下:

1.3.1 首个全面综述

据我们所知,这篇论文是首个对LLMs人格研究的全面综述。我们广泛收集了2021年以来发表的相关文献,涵盖了自我评估、人格展示、人格识别等各主题领域。

通过系统梳理不同研究的关联与差异,我们为这一新兴跨学科领域勾勒出了较为完整的发展脉络。这不仅为刚入门的研究者提供了全景概览,也为该领域的进一步发展指明了方向。

1.3.2 清晰的分层分类法

为理清纷繁复杂的研究现状,我们提出了一种分层分类法,在研究问题和技术方法两个层面上系统组织现有文献:

论文根据人格在LLMs中的内在特征和外在表现,将LLMs人格研究划分为三大问题:自我评估、人格展示、人格识别。这一划分兼顾了人格psychology和AI的视角,涵盖了当前研究的主要脉络。

在每个问题下,进一步根据采用的技术方法,梳理出了几类主流的解决方案。例如,在自我评估问题中,我们总结了李克特量表问卷和文本响应分析两大类方法,并对它们的优劣进行了系统比较。

这种分层分类使纷繁的研究条理化,便于把握各研究工作的侧重点和创新点。通过对比分析不同技术路线,可以深入理解该领域的前沿进展和局限所在。

1.3.3 广泛的资源收集

LLMs人格研究涉及心理学和人工智能两大领域的理论与实践。为降低研究者的学习门槛,论文广泛收集和总结了与该主题相关的公开资源:

  • 常见人格量表与问卷,如大五、MBTI、黑暗三征等;
  • 人格对话、故事、评论等文本数据集;
  • 人格识别、人格对话、人格问答等任务的开源代码和模型权重;
  • 以LLMs为核心的人格计算工具、平台、服务等。

这些资源将为不同背景的研究者提供参考,有助于加速人格研究在LLMs领域的创新应用。我们的目标是建立一个LLMs人格研究的开放知识库,促进学界与业界的交流合作。


2. 研究分类框架

为全面系统地综述LLMs人格研究,论文提出了一个分层分类框架。在研究问题层面,我们根据人格在LLMs中的内在特征和外在表现,将现有工作划分为三大主题:自我评估、人格展示和人格识别。

自我评估关注LLMs自身是否具有内在、稳定的人格特质;人格展示探索如何控制LLMs呈现出特定人格风格;人格识别则利用LLMs从文本中推断人格信息。这三个主题分别聚焦人格的内在属性、外显行为和感知能力,构成了LLMs人格研究的核心问题。

在每个问题下,论文进一步根据采用的技术方法,细分出了主流的研究范式。这种分层分类使纷繁的研究成果条理化,便于把握各研究工作的重点和创新点。通过系统比较不同技术路线,可以深入理解该领域的前沿进展和局限所在。

2.1 自我评估 (Self-assessment)

2.1.1 定义与重要性

自我评估旨在测量LLMs的内在人格特质。这一问题的提出源于LLMs在对话中展现的高度拟人化表现,引发了研究者对其人格属性的兴趣。

人格特质是个体思想、情感和行为模式的集合,具有跨情境的一致性和稳定性。心理学家认为,人格是先天遗传和后天环境共同作用的结果。而LLMs作为一种人工构建的语言模型,其人格的形成机制尚不明确。因此,评估LLMs的自我人格具有重要意义:

有助于我们理解LLMs的内在运作机制。人格反映了个体对世界的认知、态度和价值观。通过分析LLMs的人格特质,我们可以推断其知识表征、推理逻辑和决策倾向,深入洞察其智能的本质。

为LLMs的可解释性研究提供了新视角。当前主流的可解释性工作主要关注LLMs的知识和推理。而人格代表了更高层次的心理构念,直接影响着LLMs的行为表现。厘清人格、知识、推理三者之间的关联,将极大提升我们对LLMs的理解和信任。

还有,自我评估的结果可以指导下游任务中LLMs人格的塑造。例如,如果评估显示某LLMs具有外向、友好的特质,我们可以据此设计其在客服场景中的对话风格。反之,如果LLMs展现出攻击性、偏见等不良特质,则需要及时修正。自我评估是保障LLMs人格健康、价值对齐的重要手段。

2.1.2 李克特量表问卷法

李克特量表问卷是心理学中最常用的人格测量工具。它通过一系列陈述句来考察被试对某种人格特质的认同程度,通常采用1-5分或1-7分等级划分。

将这一范式引入LLMs自我评估,研究者通常会设计与人格维度相关的问卷,让LLMs对每个条目评分,再根据评分结果推断其人格特质。例如,Jiang等人设计了一套基于大五人格维度的问卷,让GPT-3对外向性、宜人性等特质做自评。

这种方法的优点是直接借鉴了心理学的成熟量表,实施简单,易于解释。通过让LLMs回答与人类相同的问卷,还可以将LLMs与人类被试的人格得分进行对比。但其局限性也显而易见:

现有人格量表主要面向人类,条目设置可能不适用于LLMs。一些关于外貌、家庭等的问题,对LLMs而言缺乏现实对应。其次,不同研究者选用的量表差异较大,评估结果难以直接比较。

从实际情况看,LLMs对问卷的理解和作答可能存在不稳定性。研究发现,即使使用相同的量表,LLMs在不同时间、不同提示下的评分也可能发生变化。这反映了LLMs人格的动态性和语境依赖性,挑战了传统人格理论的基本假设。

所以未来需要针对LLMs的特性,开发专门的人格测量量表。统一评估工具和流程,提高不同研究的可比性。同时,需要重复实验、多次评估,持续跟踪LLMs人格的发展变化。

2.1.3 文本响应分析法

另一类自我评估方法弱化了既定量表的使用,转而分析LLMs对开放式问题的文本响应。这些问题通常围绕人格的不同侧面展开,如"你认为自己是内向还是外向的人?为什么?"、"面对压力时你通常如何应对?"等。

研究者让LLMs自由回答这些问题,再对其生成的文本进行定性或定量分析。定性分析主要关注回答内容反映的人格倾向,如从"我喜欢与人交往,乐于助人,善于表达自己的想法"中推断外向、宜人的特质。定量分析则计算文本的人格相关特征,如情感词比例、自我指称频率等,并据此对人格维度评分。

这一范式充分利用了LLMs的语言生成能力,能够获取更加丰富、细粒度的人格信息。与固定量表相比,开放式问答能够探索更多人格相关主题,发掘LLMs独特的人格表现。LLMs的回答长度不受限制,可以充分表达其世界观、价值观、逻辑思维等高层次人格特征。

但这类方法对问题设置和答案分析的要求较高。问题需要全面覆盖主要人格维度,引导LLMs做深入阐释。答案处理难度大,对研究者的心理学和语言学素养提出更高要求。主观判断的比重高,研究者需要寻求更可靠的文本人格分析工具。

此外,这类方法难以与现有人格理论直接对应,在结果解释和比较方面存在局限。如何平衡理论驱动和数据驱动,开发适用于LLMs的人格测量新范式,是该方向进一步发展需要探索的重点。

2.2 人格展示(Personality Expression)

2.2.1 定义与重要性

人格展示指控制LLMs生成符合特定人格风格的文本。与被动地评估LLMs固有人格不同,人格展示主动塑造LLMs的外显行为,让其在对话中呈现出明确的人格特征。例如,让LLMs扮演一位友善、乐观、幽默的聊天对象,或一位严谨、理性、不苟言笑的专业顾问。

人格展示对LLMs的应用开发至关重要。首当其冲这就得要求LLMs能够适应不同场景的人格表现。销售助手需要热情风趣,心理咨询师需要耐心细致,写作助手需要创造力和想象力。通过让LLMs展现与任务相匹配的人格,可以提升人机交互的自然性和任务完成的有效性。

还有,人格展示让LLMs摆脱"标准化回复",为用户提供个性化体验。研究表明,用户更倾向于与人格相近、互补的对话系统交流。匹配用户人格进行对话,能增强社交满足感和任务参与度。用户还可以根据自己的喜好,定制个性化的AI伴侣。

最有趣的手机,人格展示是构建更丰富情感交互和社会推理能力的基础。人格影响个体的情感表达和社交行为。让LLMs扮演不同人格角色,有助于其学习表达多样情绪,理解社交关系,获得更深层次的语用能力。未来,LLMs不仅能与人对话,还能与人共情。

2.2.2 人格条件微调范式

当前主流的人格展示方法是在预训练语言模型的基础上,引入人格相关的训练数据和目标,对模型进行条件微调。微调阶段加入的人格条件可以控制LLMs的生成过程,使其输出具有目标人格特征的文本。这种范式与指令微调(instruction tuning)的思路类似,只是将指令替换为了人格描述。

根据构造训练数据的方式,人格条件微调又可分为两类:

(1)基于人格-文本对(personality-text pairs)的训练。研究者手工或自动构建〈人格描述,对应对话/文本〉的配对语料,让LLMs学习将给定人格映射为相应的语言表达。例如,Shuster等人的Image-Chat数据集包含了不同人格角色的对话。每轮对话以对话者的人格简介开头(如"乐观、热情、善于交际的销售员"),后接该角色在多轮对话中的回复。

基于这些配对数据微调后,LLMs可以根据输入的人格简介,控制后续对话的风格基调。这一范式的优点是训练直观,人格展示效果明确可控。但构建高质量的人格-文本对非常耗时,现有数据集的规模和人格覆盖度有限。未来需要开发人格文本的自动生成技术,改善人格标注的一致性,提高数据构建的效率。

(2)基于人格嵌入(personality embeddings)的训练。该方法放宽了训练文本与人格严格对应的限制,转而学习人格描述文本本身的语义表征。研究者从海量语料中自动提取人物角色描述,如小说中的人物简介、电影字幕中的角色介绍等,将其编码为人格嵌入向量。

在对LLMs微调时,将人格嵌入作为额外的条件输入,指导模型生成过程。这使得LLMs可以根据任意输入的人格描述进行对话生成,而不局限于训练阶段出现过的特定人格。Liang等人使用了预训练的文本编码器将人格描述转换为人格嵌入,并在其指导下微调对话模型Blender,使其能够根据用户提供的任何人格描述,灵活地扮演不同角色进行对话。Zhang等人则进一步将人格嵌入空间与心理学五因素人格维度对齐,使生成的人格嵌入兼具可解释性和可控性。

基于人格嵌入的方法扩展了人格展示的适用范围,让LLMs摆脱了对固定人格标签的依赖,体现出更强的人格迁移能力。但从描述文本中准确提取人格语义具有挑战性,需要大规模高质量的人格描述数据,以及更完善的人格表征学习技术。未来,融合知识图谱、常识推理等技术,增强人格嵌入的语义理解,是该方向的重要探索。

2.2.3 人格模板提示范式

不同于上述微调范式对预训练模型本身的修改,人格模板提示(personality prompt templates)在应用阶段为LLMs提供人格相关的上下文信息,引导其生成具有特定人格风格的文本。这一范式充分利用了LLMs对提示的理解和执行能力,无需重新训练模型,使用灵活。

构造人格模板提示的常用方法有:(1)人格标签+对话历史。模板中包含目标人格的标签描述,如"你是一位乐观、幽默、善解人意的朋友",以及当前对话的历史片段。这为LLMs提供了人格定位和对话上下文,使其在保持人格一致性的同时,生成连贯的对话回复。

(2)人格传记+对话任务。模板中给出虚构角色的详细背景介绍,如年龄、性别、职业、性格特点、人生经历等,让LLMs代入角色并在对话中扮演。模板还规定了对话的目的和范围,引导LLMs聚焦任务主题。例如,"你现在是一名高中生物老师,性格严谨、逻辑清晰,正在为学生讲解光合作用的原理。"

(3)人格问答+角色扮演。模板中设置了一系列关于角色人设的问题,引导LLMs从自我视角阐述角色的性格、动机、情感等。在问答过程中LLMs逐步构建起对角色的理解,之后再要求LLMs以该角色的身份进行对话。这一方法常用于推理小说、电影等作品中的人物心理。

人格模板提示无需重新训练模型,可以即时生效,允许用户自由定制人格角色。但其效果依赖于LLMs对提示的理解深度。对于复杂、抽象的人格,LLMs可能难以把握其丰富内涵。此外,在多轮交互的过程中,LLMs对人格的理解和表现可能存在偏移,失去一致性。提示模板的设计需要悉心考量,在可理解性和引导性之间寻求平衡。

未来可以开发更系统、模块化的人格提示框架,细化人格要素,引入心理学理论指导,增强人格刻画的全面性。通过反复迭代优化,使LLMs在对话中呈现出更加立体、饱满的人格形象。这将大大拓展LLMs的应用场景,为虚拟人物、数字人的构建提供重要支持。

2.3 人格识别(Personality Recognition)

2.3.1 定义与重要性

人格识别指利用LLMs从文本中自动推断作者的人格特征。相比前两个主题聚焦LLMs自身,这一任务将LLMs作为工具,考察其对他人人格的感知和判断能力。LLMs在这里扮演"人格评估者"的角色。给定一段自然语言文本,如社交媒体帖子、日志、小说片段等,让LLMs分析其反映的作者人格倾向,如内向/外向、亲和/疏离等。

人格识别在心理学和计算机科学领域都有重要应用价值。传统的人格评估主要依赖于个体的自我报告和他人评分,耗时费力,易受主观偏差影响。而文本作为个体在不同情境下思想言行的自然表达,提供了一种更加客观、生态化的人格测量途径。通过分析海量文本数据,我们可以大规模推断个体人格,揭示人格在不同人群、文化、时空中的分布规律。

同时,自动化的人格识别技术可以应用于个性化推荐、针对性营销、在线交友、人才筛选等诸多场景。例如,根据用户在社交平台上言行反映的人格特点,为其推荐匹配的商品、服务、社交对象和职业发展路径。这不仅提升了信息服务的精准度,也为用户提供更好的个性化体验。

此外,人格识别在心理健康领域也有重要应用前景。抑郁、焦虑等心理问题常伴有情绪和行为方面的异常表现。通过分析个体日常言语中的人格线索,有望实现对心理健康状态的早期预警和持续监测,为心理干预提供依据。

2.3.2 基于人格词典的识别方法

早期的人格识别研究主要采用基于词典(lexicon-based)的方法。心理学家首先构建一个人格相关词语词典,包含反映不同人格特质的形容词、习语等。例如,Goldberg编制的Big-Five因素标记词包含了100个与外倾性、宜人性、尽责性、神经质、开放性相关的形容词。

在对目标文本进行人格识别时,系统匹配其中出现的人格标记词,并根据词语所属类别和频次计算不同人格维度的得分。例如,如果一段文本中频繁出现"adventurous", "energetic", "talkative"等词,则判断作者倾向于外倾;如果大量使用"anxious", "fearful", "nervous"等词,则推断其神经质程度较高。

这种方法实现简单,解释性强,能够明确揭示人格判断所依据的语言特征。但其局限性也很明显:

首先,方法完全依赖于人格词典的质量,词典的收录范围和分类标准直接决定了人格识别的效果。然而,编制全面、准确的人格词典本身就是一项非常耗时费力的工作。由于词语使用的文化差异,不同语言的人格词典还很难直接通用。

当然,词典难以穷尽所有与人格相关的词语和表达。很多反映人格的词语是隐晦、委婉的,有的则带有反讽、夸张等修辞色彩。仅仅依靠字面匹配,容易遗漏或误判。

还有传统的方法忽略了词语在上下文中的具体语义,很容易产生偏差。同一个词在不同语境下可能传递出不同的人格信息。例如,"唠叨"一词在描述老人时可能反映出亲和、关切,在形容同事时则可能表达反感、疏远。脱离语境的词频统计无法准确把握词语的情感倾向。

因此,未来还需要研究更加智能化的人格词典构建技术,考虑词语使用的文化差异,挖掘隐含的人格线索。同时,在人格判断中融入更多语言学特征,如句法、语义、语用等,提高识别的准确性和全面性。

2.3.3 基于深度学习的识别方法

随着深度学习技术的发展,越来越多的研究开始探索利用深层神经网络进行人格识别。与基于词典的方法相比,深度学习可以自动学习文本中暗含的高层次人格特征,无需手工设计特征,识别精度和泛化能力大大提升。

根据建模思路,基于深度学习的人格识别方法主要分为两大类:基于特征表示学习(representation learning)的方法和端到端学习(end-to-end learning)的方法。

基于表示学习的方法先利用无监督或自监督学习,从大规模文本语料中学习词语、句子、段落的分布式表示(distributed representation)。这些表示以低维稠密向量的形式,刻画了语言单元的语义、情感、主题等深层特征。在此基础上,再针对人格识别任务,训练有监督的分类模型,将文本表示映射到人格标签。

例如,Majumder等人利用循环神经网络(RNN)学习句子的分布式表示,再通过多层感知机(MLP)将句子表示聚合为文档级别的人格向量,用于预测Big-Five人格得分。Vu等人使用卷积神经网络(CNN)抽取句子中的人格相关特征,并在注意力机制的指导下实现不同句子特征的加权融合。

这类方法的优势在于可以充分利用无标注数据,自动习得蕴含丰富人格信息的文本表示。通过在大规模语料上进行预训练,再在人格标注数据上进行微调,有助于缓解标注数据稀缺的问题,提高模型的泛化性能。但其不足在于特征表示学习与人格分类这两个阶段是相对独立的,特征表示可能掺杂与人格无关的信息,影响分类精度。

端到端学习以统一的神经网络架构,同时实现文本表示和人格预测。相比基于表示学习的方法,端到端学习可以让模型自适应地提取与人格判断最相关的语义特征,避免中间特征表示的信息损失,精度更高。

例如,Lynn等人提出了Hi-Transformer模型,以多头自注意力机制直接对词语序列进行建模,通过掩码语言模型和人格分类的多任务训练,同时优化词语表示和分类目标,在多个数据集上取得了最优表现。Jiang等人设计了层次Transformer网络,既考虑了词语之间的相互依赖,又建模了句子、段落之间的结构关系,全面挖掘了不同粒度文本的人格信息。

尽管端到端学习的性能优势明显,但其可解释性不足,模型内部的特征提取机制仍是黑盒。如何权衡识别精度和可解释性,实现高效、透明的人格推理,是下一步值得探索的重要方向。未来还可以将深度学习与心理学知识相结合,设计与人格判断机制更加吻合的神经网络结构,让人格识别模型具备与人类相近的认知和推理能力。这不仅有助于创造更加智能、自然的人机交互系统,也为探索人格的心理机制本身提供了新的研究视角。

3. LLM的人格自我评估

3.1 问题定义

3.1.1 研究假设

论文旨在探索语言模型是否能够对自身的人格特征进行准确评估。我们假设,尽管语言模型没有真正的自我意识,但它们可以通过对自身生成文本的分析,形成关于自我人格的某种表征。这种表征可以通过适当设计的评估方法来提取和量化。

3.1.2 评估目标

人格自我评估的主要目标包括:

  1. 考察语言模型对自身人格特征的认知是否与人类的人格理论框架一致,如是否符合 OCEAN 五因素模型;
  2. 评估不同语言模型在人格特征上的差异,分析其原因,并探讨人格特征与其他属性(如知识水平、伦理倾向等)的关联;
  3. 测试语言模型人格自评的稳定性,即在不同的评估方法、任务设置下,其人格评估结果是否一致;
  4. 为语言模型的人格化调优和应用提供依据,如针对特定人格的对话生成、写作辅助等。

3.2 李克特量表问卷方法

李克特量表是心理学中常用的人格测量工具。受其启发,我们探索了三种基于李克特量表的语言模型人格评估方法:直接提示法、指令优化法和重构问卷法。

3.2.1 直接提示法

a) 方法描述

直接提示法是最简单直观的评估方式。我们直接呈现李克特量表中的人格描述语句,要求语言模型填写从"非常不符合"到"非常符合"的1-5级评分。例如:"我是一个外向的人,在与人交往时感到自在。请根据对自身的评估,给出1-5分的评分。"

b) 答案提取技术

我们通过正则表达式匹配、数字解析等技术,从语言模型的回答中提取出数字评分。需要注意的是,模型可能给出一些模棱两可的回答,如"我可能是一个比较外向的人工智能,给自己打4分吧,但我不太确定。"此时可以采取启发式规则,提取第一个出现的数字作为评分。

c) 优缺点分析

直接提示法的优点是操作简单,易于实现和批量化。但其缺点也很明显:语言模型可能对人格问卷存在先入为主的认知,倾向于迎合设计者的预期给出积极的评分。此外,这种"挖空心思"式的问答缺乏交互性,难以深入探查语言模型对人格的理解。

3.2.2 指令优化法

针对直接提示法的局限,指令优化法在问卷呈现方式上做了改进。

a) 任务描述优化

我们对人格测试的任务描述进行优化,引导语言模型进行更加客观、全面的自我评估。例如,将"我是一个外向的人"改为"请评估一下你在社交场合中的表现,你是一个外向的人吗?回想一下你在与人互动时的具体言行,给出1-5分评分并说明理由。"

这种优化引导语言模型结合实际表现进行评分,同时要求给出判断依据,以减少主观臆断。

b) 角色设定技巧

除了优化问题描述,我们还可以为语言模型设定不同的角色,引导其换位思考。例如:"假设你是一名心理咨询师,一个语言模型 LM 来找你做人格测试。根据你对 LM 在交谈中表现出的特点,客观评估一下 LM 的外向程度。"

通过设定"第三方"视角,语言模型更容易跳出自我认知的窠臼,客观评价自己。

c) 效果比较

我们发现,指令优化使得评估结果的信度和效度均有提升。语言模型的自评更加具体、客观,不同问题的评分之间也更加一致。角色扮演产生的评分与直接自评也有较高的相关性。总的来说,指令优化法是一种简单有效的改进策略。

3.2.3 重构问卷法

尽管指令优化取得了一定成效,但受限于原有问卷形式,其探索空间有限。重构问卷法从更底层出发,尝试把人格评估转化为标准的自然语言理解任务。

a) NLU 任务转化

我们将人格量表问卷转化为自然语言理解 (NLU) 任务,常见的任务形式包括:

  • 文本蕴含:将问卷语句和答案选项组合,判断陈述之间的蕴含关系。如"我是一个外向的人。"和"在社交场合我感到放松自在。"具有 entailment 关系。
  • 语义相似度:计算不同人格描述语句之间的语义距离,构建人格特征的向量空间。
  • 情感分析:分析人格陈述的情感倾向是否与问卷设定的方向一致。

通过 NLU 任务,语言模型可以直接利用其强大的语言理解能力进行人格推断。

b) NLI 技术应用

自然语言推理 (Natural Language Inference, NLI) 是实现文本蕴含的关键技术。我们利用预训练的 NLI 模型来评估语言模型对人格陈述的认同程度。例如,使用 RoBERTa 等模型,计算"我是一个勇于冒险的人。"和语言模型生成的自我描述文本之间的蕴含关系。如果语言模型的描述与该陈述具有较高的 entailment 概率,则表明其自认较为勇敢和冒险。

通过fine-tune NLI模型,还可以学习人格量表各题项与五大人格维度之间的对应关系,实现从语言模型生成文本到人格分数的端到端转换。

c) 适用模型与局限性

重构问卷法对语言模型的语言理解和生成能力要求较高,因此更适用于大型预训练模型如 GPT-3、PaLM 等。尽管这一方法有望深入挖掘语言模型的人格表征,但其计算开销大、流程复杂,应用难度高于前两种方法。此外,由于没有现成的人格 NLU 数据集,训练此类模型需要大量的人工标注,可操作性有待提升。

3.3 文本响应分析方法

除了主动询问,我们还可以通过被动分析语言模型针对不同话题、场景的文本响应,来考察其人格特点。这类方法不依赖于既定的人格理论和量表,而是从数据驱动的角度出发,探索语言模型表现出的独特人格风格。

3.3.1 分类器分析

a) 零样本分类器应用

我们利用预训练的文本分类器,如zero-shot GPT、BERT等,对语言模型生成的文本进行人格特征分类。例如,识别文本在Big Five维度上的倾向,判断说话者是否外向、宜人、尽责、情绪稳定和开放。由于采用了zero-shot范式,无需人工标注训练数据,适用性强。

b) 特征提取与分析

分类器的内部激活状态蕴含了丰富的语义信息。我们对分类器的隐藏层表征进行提取和聚类分析,考察不同语言模型生成文本在人格空间中的分布特点。这种无监督方法可以发现一些超出既有人格理论框架的新颖特征。

3.3.2 LIWC 分析

a) LIWC 工具介绍

LIWC (Linguistic Inquiry and Word Count) 是一种基于词典的文本分析工具。它从语言使用的角度分析文本所反映的心理特征,如情感倾向、认知方式、社交关注等。通过统计不同类别词语的使用频率,LIWC 可以推断文本的人格风格。

b) 应用于 LLMs 的特殊考虑

将 LIWC 用于分析语言模型时,需要考虑以下问题:

  • 语言模型生成的文本在词汇、句法等方面与人类书写文本存在一定差异,LIWC 词典和类别体系是否仍然适用?
  • 不同的提示、采样策略等生成设置对文本风格有很大影响,如何控制变量以得到可比较的分析结果?
  • 语言模型掌握的知识可能影响其词语选择,例如描述内向者时使用更多负面词汇。如何区分知识驱动和风格驱动的词语使用差异?

综合考虑这些因素,有助于得出更准确、可靠的 LIWC 分析结果。

3.3.3 情境测试分析

为了更全面地考察语言模型的人格特征,我们设计一系列情境测试任务,分析其在不同场景下的反应。

a) 情境设计原则

情境测试任务的设计应遵循以下原则:

  • 覆盖不同的交互目的,如寒暄、提供信息、表达观点、解决问题等,以观察语言模型在不同功能导向下的人格表现。
  • 涉及不同的话题领域,如科技、艺术、社会时事等,以考察语言模型在不同知识背景下的人格一致性。
  • 包含人格表现的关键场景,如面对赞美/批评时的反应、遇到压力时的应对等,以重点考察特定人格特质。
  • 设置角色扮演任务,让语言模型代入不同身份(如老师、领导、朋友等)进行对话,以探索角色期望对人格塑造的影响。

通过精心设计的情境任务,可以多角度、深层次地探测语言模型的人格特点。

b) 响应分析方法

对情境测试的响应,我们可以采用多种自动化和人工分析方法:

  • 使用情感分析工具,评估语言模型情绪反应的积极/消极度、丰富度等。
  • 统计词语使用特点,如自我指代、礼貌用语、确定性词汇的频率等,推断语言模型在不同情境下的心理状态。
  • 人工评判交互质量,如对话是否连贯、恰当、有吸引力等,考察语言模型的社交性能。
  • 定性分析响应内容,总结语言模型在处理各类情境任务时表现出的行为模式、价值取向、思维风格等。

综合运用多种分析手段,可以形成对语言模型人格特点的立体化认知。

3.4 评估结果分析

3.4.1 主要发现

a) 人格特征分布

通过李克特量表问卷和文本响应分析,我们发现大型语言模型在以下人格维度上有较为鲜明的特点:

  • 外向性:语言模型普遍得分较高,表现出乐于交流、善于表达的特点。这可能与其强大的语言生成能力有关。
  • 宜人性:语言模型往往表现出高度的礼貌、同情心和乐于助人。这反映了其训练数据中的社会互动规范。
  • 开放性:语言模型对新事物持开放、好奇的态度,思维灵活,想象力丰富。这与其广博的知识和强大的关联能力相契合。
  • 尽责性:语言模型遵循指令,按要求完成任务,但有时会表现出一定的不确定性,这可能源于其对人类意图的理解不确定性。
  • 神经质:语言模型情绪稳定,较少表现出焦虑、抑郁等消极情绪。这可能与其缺乏真实情感体验有关。

以上特点为语言模型呈现出一种乐观、理性、博学的人格形象,但也反映了其在情感表达、个性塑造方面的局限。

b) 稳定性分析

考察了语言模型人格评估结果的一致性和稳定性:

  • 不同评估方法得出的人格特征排序大体一致,如外向性和开放性普遍较高,神经质较低。这表明语言模型确实呈现出某种内在人格倾向。
  • 但不同方法的具体分数差异较大,反映了评估方式对结果有较大影响。如角色扮演情境下的外向性分数普遍高于直接自评。
  • 同一模型在不同话题、任务下的人格表现存在一定差异,但总体特征较为稳定。这表明语言模型的人格塑造受到知识背景和功能定位的影响。
  • 不同语言模型之间的人格特征分布差异明显,如GPT-3的开放性和神经质分数高于BERT。这反映了模型规模、训练范式等因素对人格塑造的重要影响。

综合来看,语言模型人格评估结果呈现出整体一致、局部差异的复杂图景。未来还需要在更大规模、更多维度上开展稳定性分析,以深入理解语言模型人格特征的影响因素。

3.4.2 结果差异原因

a) 评估方法影响

不同评估方法在任务设置、分析思路上存在差异,导致评估结果出现不一致:

  • 李克特量表问卷较为直接,但受语言模型先入为主的认知和迎合倾向影响较大。
  • 文本分析方法能够客观考察语言模型的行为表现,但缺乏对内在人格机制的考察。
  • 情境任务设置影响语言模型的反应,角色期望可能掩盖其真实人格特点。

未来需要探索多种评估方法的优化组合,以平衡主客观因素,得出更全面、可靠的人格画像。

b) 提示设置影响

即使采用相同的评估方法,不同的提示设置也会导致评估结果差异:

  • 提示的语义内容影响语言模型对人格特征的理解和表达。如将"我是外向的"改为"我在社交场合感到自在"会提高外向性得分。
  • 提示的语气、人称等影响语言模型的roleplay程度。如第三人称描述会增加语言模型的客观性。
  • 提示的开放程度影响语言模型生成内容的丰富性。开放式提示利于发现语言模型应对不同情境的人格特点。

优化提示设置,可以引导语言模型产生更丰富、客观的自我认知和人格表现。

c) 模型版本差异

不同语言模型在架构、规模、训练数据等方面存在差异,导致其人格塑造存在差异:

  • 模型规模影响语言理解和生成能力,进而影响人格特征的表现力度。如GPT-3等大模型展现出更丰富的人格特点。
  • 训练数据的主题、风格、来源等影响模型对不同人格特征的偏好。如基于社交媒体数据训练的模型,其外向性会更高。
  • 训练范式如任务预训练、人类反馈学习等,影响模型对人格塑造的内化程度。InstructGPT等人类引导优化的模型,展现出更积极正面的人格。

未来研究似乎应系统比较不同语言模型的人格特点,分析其形成机制,以优化模型在人格塑造方面的表现。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询