Skip to main content
  1. 论文/

行为科学开源大型语言模型教程

·6423 words·13 mins
大型语言模型 行为科学 Hugging Face 透明度 可重复性 数据保护 特征提取 模型微调 行为响应生成
Table of Contents

✏️ Zak Hussain
✏️ Marcel Binz
✏️ Rui Mata
✏️ Dirk U. Wulff

要点总结
#

**大型语言模型(LLMs)**在行为科学中具有巨大的潜力,能够加速研究流程并提高从概念化到数据分析的效率。与闭源解决方案不同,开源的LLMs框架能够提供透明度、可重复性,并遵守数据保护标准,这使得它们在行为科学中的应用具有显著优势。本文通过介绍开源的Hugging Face生态系统,展示了LLMs在行为科学中的多种应用,包括特征提取、模型微调和行为响应的生成。

本文详细介绍了LLMs在行为科学中的应用场景,如特征提取、零样本学习和文本生成。通过Hugging Face生态系统,研究人员可以轻松地使用LLMs进行任务,如预测人类判断、生成人类行为模拟等。此外,本文还讨论了使用LLMs时面临的挑战,如模型的可解释性和安全性,并展望了语言建模与行为科学交叉领域的未来研究方向。

关键要点
#

论文重要性
#

这项研究为行为科学领域提供了新的工具和方法,使得研究人员能够更高效地利用LLMs进行实验设计和数据分析。通过开源框架,研究过程更加透明和可重复,有助于推动科学研究的进步。此外,LLMs的应用不仅限于预测人类行为,还可以用于生成实验材料、模拟人类参与者等,为行为科学提供了新的研究方向。未来,随着LLMs的进一步发展,其在行为科学中的应用将更加广泛,推动该领域的创新和突破。


图表分析
#

LLM架构的组成
#

🔼 这张图展示了一个典型的基于Transformer的语言模型的架构流程。它从左到右依次展示了从输入文本到输出概率的处理步骤。首先,‘Prompt’(提示词)通过’Tokenizer’(分词器)进行处理,将文本分解成模型可以理解的token序列。接着,这些token序列通过’Input embedding’(输入嵌入)层转换为向量表示,这些向量在模型训练过程中学习并调整。‘Positional encoding’(位置编码)层将token在序列中的位置信息编码到这些向量中,使得模型能够感知token的顺序。随后,这些带有位置信息的向量被输入到’Attention block’(注意力模块)。注意力模块是Transformer模型的核心,它通过计算每个token与其他token之间的关联,生成上下文相关的token表示。该模块可能会重复多次,图中的 ‘Nx’ 表示重复次数。最后,‘Model head’(模型头)接收经过注意力模块处理的上下文向量,并将其转换为输出概率,用于预测下一个token或完成其他任务。

这个过程是理解当前大型语言模型工作原理的基础。该图简洁地概括了从文本输入到概率输出的关键步骤,为理解LLM的数据处理流程提供了一个清晰的框架。图中各部分的具体作用在文章其他部分有更详细的描述,例如,tokenizer的作用是将文本分解成模型可以处理的token;输入嵌入层将token转换为向量表示;位置编码层使模型能够感知token的顺序;注意力模块则处理token之间的上下文关系;而模型头则输出最终的预测概率。这个流程的理解对于科研人员选择合适的模型并将其应用于行为科学研究至关重要。

更多图表分析

Transformer模型注意力机制
#

🔼 该图详细展示了 Transformer 模型中注意力机制的工作原理。图表的核心部分是“注意力头(Attention heads)”,它包含多个并行的注意力计算单元,这里示例性地展示了四个。每个注意力头首先接收来自输入嵌入(Embedding)的向量,这些向量通过线性变换分别生成查询(Queries)、键(Keys)和值(Values)向量。查询向量与键向量进行点积运算,产生一个注意力矩阵,该矩阵通过softmax函数归一化,得到注意力权重。这些权重被用来对值向量进行加权求和,产生上下文相关的嵌入表示(Contextualized embedding)。每个注意力头的输出随后被拼接(concat)在一起。接着,这些拼接后的嵌入向量通过一个线性前馈网络(Linear feed-forward)层,然后与初始嵌入向量进行跳跃连接(+)。之后,向量会进入一个非线性前馈网络层(Non-linear feed-forward)进行进一步处理,再次跳跃连接,并经过最后一个线性前馈网络层(Linear feed-forward)输出,最终生成上下文相关的token嵌入表示。此图清晰地描绘了注意力机制如何在 Transformer 模型中处理输入数据,并逐步生成上下文感知的表示。这些表示捕获了输入序列中不同位置的token之间的关系,使得模型能够有效地处理文本数据。图表还突出了模型中的线性层和非线性层,这些层在特征提取和转换中发挥关键作用。此外,跳跃连接的引入有助于稳定训练过程,并防止梯度消失问题。

掩码语言建模与因果语言建模
#

🔼 该图展示了两种主要的语言模型预训练方法:掩码语言建模(Masked Language Modeling,MLM)和因果语言建模(Causal Language Modeling,CLM)。这两种方法在处理文本输入和预测目标上有所不同,并且分别对应于编码器(Encoder)和解码器(Decoder)架构。在左侧的掩码语言建模中,模型接收一个被掩盖([MASK])的句子,例如“[CLS] open - source ll ##ms [MASK] . [SEP]”。此处的“[CLS]”和“[SEP]”是特殊标记,分别表示句子的开始和结束,而“[MASK]”则是被掩盖的词元。模型的目的是根据句子的上下文,预测被掩盖的词元。具体来说,句子首先经过双向注意力矩阵,生成上下文嵌入,然后选择“[MASK]”标记的嵌入,输入模型头部的线性层和softmax层,最终输出词汇表中每个词的概率,从而预测“[MASK]”处的词。在右侧的因果语言建模中,模型的目标是预测序列中的下一个词元。例如,在给定“open source ll ##ms”的情况下,模型需要预测下一个词元。此处的注意力是因果的,也就是说,模型只能访问当前词元及其之前的词元。模型同样首先经过因果注意力矩阵和上下文嵌入,然后选择最后一个词元(如“##ms”)的嵌入,输入模型头部的线性层和softmax层,预测下一个词元。两种建模方法的关键差异在于注意力机制和模型头的训练目标。掩码语言建模使用双向注意力,使模型能够从整个句子中学习上下文信息,而因果语言建模使用单向注意力,使模型能够学习文本序列的生成方式。这两种方法都旨在训练模型生成词汇表中各个词元的概率分布,从而进行不同的下游任务。理解这两种建模方式对于选择合适的预训练模型非常重要。

Hugging Face生态系统
#

🔼 该图展示了 Hugging Face 生态系统的两个主要组成部分:Hugging Face Hub 和 Hugging Face Libraries。Hugging Face Hub 是一个在线平台,用于托管和共享机器学习模型、数据集、评估指标和文档。它具有社区驱动的特点,旨在促进机器学习模型的民主化。具体来说,该 Hub 包含四个主要部分:模型(Models),用于存储和访问预训练的机器学习模型;数据集(Datasets),用于存储和访问各种类型的数据集,这些数据集可以用于训练和评估模型;评估指标(Metrics),用于评估模型的性能;文档(Docs),用于提供关于如何使用 Hugging Face 工具和资源的文档。Hugging Face Libraries 是一组 Python 库,用于简化机器学习模型的使用和开发。这些库包括:tokenizers,用于将文本数据转换为模型可以理解的格式;transformers,用于加载和使用预训练的 Transformer 模型;datasets,用于管理和操作数据集;accelerate,用于加速模型的训练和推理过程。图中的双向箭头表示这两个组成部分之间的互动。Hugging Face Hub 提供模型、数据集和其他资源,而 Hugging Face Libraries 提供工具来利用这些资源。通过将模型和数据集托管在 Hub 上,并提供易于使用的 Python 库,Hugging Face 生态系统旨在使机器学习对更广泛的受众更加易于访问,并促进可重现的研究。图中的这些组件共同构成了一个强大而灵活的生态系统,可用于广泛的自然语言处理任务,并有助于推动行为科学领域中的人工智能应用。

总体而言,这张图清晰地说明了 Hugging Face 生态系统的结构和功能,强调了其开放性和易用性,以及在推动机器学习和行为科学研究方面的潜力。

人格测量相关性
#

🔼 该图表包含三个子图,分别展示了不同语言模型在人格特质分析中的表现。图A和图B为柱状图,展示了使用不同模型(DistilBERT, Instructor, Cohere, ada)提取的人格特质项目和构建的嵌入向量与观察到的相关性(Pearson r)。图A显示了项目层面的相关性,而图B显示了构建层面的相关性。图A中,DistilBERT模型的表现显著低于其他三个模型,其相关性系数约为0.15,而Instructor, Cohere和ada模型的相关系数均在0.35以上,其中ada模型表现最好。图B中,DistilBERT的表现依然最低,相关系数约0.32,而其他三个模型均在0.5以上,ada模型的相关性最高。这表明在构建层面,各模型的表现均较项目层面更好。图C为散点图,展示了人格构念嵌入在二维空间上的分布。图中不同颜色代表不同的人格特质,包括责任心(Conscientiousness)、外向性(Extraversion)、开放性(Openness)、宜人性(Agreeableness)和神经质(Neuroticism)。图中的点按照颜色聚类分布,表明这些嵌入向量成功捕捉到了人格构念之间的相似性。总体而言,该图表强调了大型语言模型在人格特质分析中的潜力,尤其是Instructor、Cohere和ada等大型模型表现出更高水平的相关性。

模型预测健康感知与实际值对比
#

🔼 该图表包含两个子图,分别展示了不同模型在预测健康感知方面的表现。子图A是一个散点图,横轴为模型预测的健康状态评分,纵轴为实际观察到的健康状态评分。每个点代表一个健康状态,点的颜色表示不同的模型。从图中可以看出,模型预测值与实际观察值之间存在一定的相关性,大部分数据点集中在对角线附近,表明模型具有一定的预测能力,但仍有部分点偏离对角线,说明预测存在误差。子图B展示了不同模型在10折交叉验证下的R平方值。R平方值用于衡量模型的预测能力,值越高代表模型的表现越好。图中显示,DistilBERT模型的R平方值最低,而Instructor、Cohere和ada模型的R平方值明显更高,说明这些大型模型在预测健康感知方面具有更好的性能。具体而言,Instructor和Cohere模型的表现相对接近,而ada模型的表现略高于其他模型。此外,每个模型的R平方值呈现一定的分布范围,可能反映了交叉验证过程中的数据波动。总体而言,此图表对比了不同语言模型在预测健康状态感知任务中的表现,突出了大型模型在提高预测准确率方面的优势,尽管所有模型都显示出不同程度的预测能力。

LLM预测重复选择的准确率
#

🔼 该图表展示了使用不同方法预测重复选择任务中参与者选择的准确率。图A部分提供了一个示例提示,其中包含参与者在过去观察到的结果(每次选择机器1或机器2获得的金额),并要求模型预测接下来的选择。图B部分则对比了三种不同方法在预测选择时的准确率。第一种方法使用DistilBERT模型进行特征提取,并使用逻辑回归进行预测,其准确率约为79%。第二种方法使用了更大的Llama-2-13B模型,其准确率提高到约83%。第三种方法则使用心理学模型,结合手工制作的特征(例如,奖励的期望值和不确定性差异),其准确率与Llama-2-13B模型相近。图中还显示了一条随机表现的基线水平线,表示随机选择的预期准确率,约为50%。这些结果表明,大型语言模型在预测复杂的决策行为方面,可以达到与当前心理学模型相当的水平。Llama-2-13B模型由于其规模更大,能够更好地捕捉任务的顺序性质和其中的认知推理,因此表现优于较小的DistilBERT模型。此外,此结果突显了使用大型语言模型进行行为预测的潜力,不仅可以模拟人类行为,还可以用于测试干预措施,并深入理解人类决策过程。图表整体清晰易懂,使用了柱状图来直观对比不同模型的准确率,有助于读者快速理解研究结论。

深度解读
#

开源LLM优势
#

开源大型语言模型(LLMs)在行为科学中的应用具有显著优势,尤其是在透明性、可重复性和数据隐私保护方面。与闭源模型相比,开源框架如Hugging Face生态系统允许研究人员完全访问模型的内部机制,从而确保研究过程的透明性和可重复性。此外,行为科学中的许多应用涉及敏感数据(如个人健康信息),开源模型能够更好地遵守数据保护标准,确保数据隐私。Hugging Face生态系统提供了丰富的工具和资源,使得研究人员能够轻松地使用LLMs进行特征提取、模型微调和文本生成等任务。这种开放性不仅降低了技术门槛,还促进了科学研究的协作和创新。然而,开源LLMs也面临一些挑战,例如模型的解释性和安全性问题,这些问题需要在未来的研究中进一步解决。

特征提取应用
#

特征提取是LLMs在行为科学中的核心应用之一,通过将文本输入模型并记录其上下文嵌入,研究人员可以利用这些嵌入向量进行多种任务。例如,在人格心理学中,LLMs可以用于生成人格项目的嵌入向量,并通过相似性比较和聚类分析来揭示人格结构。这种方法不仅能够验证不同模型的有效性,还能帮助解决人格心理学中概念模糊的问题。此外,特征提取还可以用于预测人类判断,如健康感知评分。通过将LLMs的嵌入向量与回归模型结合,研究人员能够以较高的准确率预测人类的感知和行为。尽管特征提取在行为科学中展现了巨大的潜力,但其性能仍受到模型大小和数据质量的限制,未来的研究可以探索更大规模的模型和更复杂的预测算法。

模型微调挑战
#

模型微调是LLMs在行为科学中的另一种重要应用,尤其是在任务特定的数据可用时。通过微调,研究人员可以优化模型的权重,使其在特定任务上表现更好。然而,微调并不总是优于特征提取,尤其是在数据量有限或计算资源不足的情况下。例如,在预测健康感知的任务中,特征提取的表现略优于微调模型。这表明,微调的有效性取决于数据的数量和质量,以及计算资源的可用性。此外,Hugging Face生态系统提供了大量预训练和微调的模型,研究人员可以根据任务需求选择合适的模型。尽管如此,微调模型的泛化能力仍然是一个挑战,未来的研究需要探索更高效的微调策略和跨领域应用的潜力。

文本生成潜力
#

文本生成是LLMs在行为科学中的另一大亮点,尤其是在模拟人类行为和生成实验材料方面。通过将实验任务转换为文本格式,研究人员可以使用LLMs进行虚拟行为实验。例如,在认知反射测试(CRT)中,LLMs能够生成与人类参与者相似的响应,展示了其在模拟人类推理能力方面的潜力。这种能力不仅可以用于预测人类行为,还可以用于生成解释性文本,帮助研究人员理解人类行为的动机。然而,LLMs的文本生成能力也引发了一些争议,尤其是关于模型是否真正“理解”或“推理”的问题。未来的研究需要进一步探讨LLMs的内部机制,以确保其在行为科学中的应用具有理论上的合理性。

未来研究方向
#

LLMs在行为科学中的应用前景广阔,但仍有许多未解之谜和挑战需要解决。首先,未来的研究可以探索如何提高LLMs的解释性,尤其是在模型内部表示与人类语义表示之间的对齐问题上。其次,LLMs的涌现能力(emergent abilities),即随着模型规模的扩大而出现的新能力,仍然难以预测和理解。未来的研究可以结合心理语言学方法,进一步探讨LLMs的内部表示与人类认知之间的关系。此外,LLMs的开放性和透明性为行为科学提供了新的研究工具,但也带来了社会和伦理风险。未来的研究需要在推动技术进步的同时,确保LLMs的应用符合伦理规范,并避免潜在的滥用。

完整论文
#