Skip to main content
  1. 论文/

推进社交媒体中的情感识别:一种异构神经网络与微调语言模型的新集成方法

·8696 words·18 mins
异构神经网络 微调语言模型 情感分类 社交媒体分析 情感识别 标签一致性 数据集 分类准确性 多语言平台 可扩展解决方案
Table of Contents

✏️ Abbas Maazallahi
✏️ Masoud Asadpour
✏️ Parisa Bazmi

要点总结
#

社交媒体平台已成为情感分析的重要来源,但微调大语言模型(LLMs)在标签标注上的不一致性严重影响了情感分类的准确性。本研究通过引入一种新的一致性驱动训练集,系统性地调和了多个LLMs之间的标签差异,从而在非一致性数据集上将分类准确率提高了5%以上。通过将这种一致性训练集与异构神经网络(HNN)架构结合,提出了一个鲁棒的情感分类框架。

该方法在三个不同的数据集(GoEmotion、Friends和TEC)上进行了验证,结果表明其在准确性、F1分数和召回率上均显著优于基线模型。这些结果证实了一致性驱动策略的有效性,并为社交媒体内容中的情感识别设立了新的基准。该框架提供了一个适用于多种语言和平台的通用且可扩展的解决方案,确保了其在高级情感分类任务中的广泛应用。

关键要点
#

论文重要性
#

这项研究解决了情感分类中的标签不一致性问题,显著提升了社交媒体情感识别的准确性。通过引入一致性驱动训练集和异构神经网络架构,该方法不仅在现有数据集上表现出色,还具备广泛的适用性和可扩展性。未来研究可以进一步探索多模态数据集成和低资源语言的应用,推动情感识别技术在更多实际场景中的应用。


图表分析
#

预处理阶段流程图
#

🔼 该图展示了论文中提出的情感分类方法的预处理阶段。该阶段的目标是利用多个微调语言模型来生成一个高质量的训练数据集。整个流程分为三个主要步骤:首先,从社交媒体平台(如Twitter或Reddit)收集原始推文数据。这些数据以蓝色圆柱体表示,标志着数据的初始状态。接下来,这些收集到的推文被送入两个独立的微调语言模型(图中以灰色立方体表示)。这两个模型分别对推文进行情感标签预测。然后,系统对两个模型生成的标签进行比较,识别出两个模型都预测出相同情感标签的推文,这些推文被认为是“同意标签”的推文,用绿色圆柱体表示。而两个模型预测标签不一致的推文则被认为是“未同意标签”的推文,以红色圆柱体表示。最终,“同意标签”的推文将用于训练异构节点分类模型,这个最终的训练数据集以绿色方框表示。这个预处理阶段的关键在于通过多个模型的共识来减少标签的不一致性,从而提高后续分类任务的准确性。该图清晰地展示了如何通过对齐不同模型的预测来构建一个高质量的训练数据集,这对于提高模型在情感分类任务中的性能至关重要。同时,该图也展示了如何有效利用多个模型的预测结果,以提高数据集质量并降低噪声。

更多图表分析

预处理阶段流程图
#

🔼 该图展示了论文提出的预处理阶段的详细流程。整个预处理过程可以分为三个主要步骤:首先是收集推文,这代表了情感分析的初始数据来源。收集到推文后,下一步是利用两个经过微调的语言模型对这些推文进行情感标注。这两个模型的作用是对每条推文的情感进行独立的预测,为后续的比较分析提供基础数据。最后一步是提取具有一致标签的推文,这意味着只保留那些两个模型都给出相同情感标签的推文。这些一致标签的推文构成了一个高质量的训练数据集,用于后续的分类阶段。该图清晰地展示了数据从收集到处理的完整流程,强调了通过模型一致性来提高训练数据质量的关键步骤。这种方法旨在通过减少标签不一致性来提高情感分类的准确性和可靠性。该流程图的清晰度和完整性有助于读者理解预处理过程,并为后续的分类阶段奠定了良好的基础。图中箭头清楚地标示了流程方向,表明数据流动的顺序,使得整个预处理流程易于理解和跟踪。通过这个预处理阶段,确保了用于训练的数据具有较高的一致性,从而减少了模型训练过程中的噪声,提高了分类结果的质量。总体而言,该图清晰地展示了预处理阶段的流程和核心思想,为论文的整体框架提供了重要的支撑。

异构网络结构图
#

🔼 该图为论文中提出的异构网络结构图,用于情感分类任务。图中包含三种节点类型:推文(T1-T6)、短语(P1-P3)和情感标签(surprise, sadness, neutral, joy, fear, disgust, anger)。推文节点(T1到T6)代表文本数据,其中T1到T4用绿色表示,T5和T6用红色表示,这可能表示了不同的情感倾向或来源。短语节点(P1到P3)代表从推文中提取的关键短语,它们作为推文和情感标签之间的桥梁。情感标签节点代表不同的情感类别,如“surprise”、“sadness”、“neutral”等。图中的箭头表示节点之间的连接关系,实线箭头表示推文与短语之间的连接,虚线箭头表示短语与情感标签之间的连接。这种连接方式体现了异构网络的核心思想:不同类型的节点通过不同的边进行连接,从而构建复杂的语义关系。这种结构允许模型学习推文、短语和情感标签之间的相互作用,提高了情感分类的准确性。例如,推文T1和T2都与短语P1连接,表示这些推文都包含了与P1相关的语义信息。P1又通过虚线箭头与多个情感标签连接,表明P1可能与多种情感相关。这种多对多的连接方式使得模型能够更好地捕捉文本的情感特征。图中的推文节点(T5,T6)采用红色标识,可能是为了突出显示这些推文与其他推文在某些属性上有所不同,比如情感倾向。整个图的结构简洁明了,有效传达了异构网络的基本概念。它通过不同类型的节点和边来构建情感分析模型,这有助于更准确地识别和理解社交媒体文本中的情感。该图清晰展示了论文提出的情感分类方法的关键组成部分,为深入理解模型的工作原理提供了视觉化的帮助。

异构网络结构示意图
#

🔼 该图是一个表示异构网络结构的示意图,主要用于情感分析的上下文中。该图由三个主要节点类型构成:‘Tweet’(推文),‘Phrase’(短语)和’Emotion’(情感)。推文节点代表需要进行情感分类的原始文本数据,短语节点代表从推文中提取的关键短语或关键词,而情感节点代表用于分类的不同情感类别。图中展示了节点之间的关系和信息流动。推文通过实线箭头与短语连接,表示推文包含对应的短语。短语通过虚线箭头与情感连接,表示短语与特定情感之间存在关联。这种网络结构旨在捕获推文、关键短语和情感标签之间的复杂关系。该图的目的是展示一个异构网络是如何被构建用于情感分析任务的。通过将文本分解为推文和短语,并链接到情感标签,这种结构允许模型学习更细致和上下文相关的表示。虚线箭头表示短语和情感之间的连接是通过更复杂的关联机制建立的,例如基于上下文的共现或统计相关性。这种异构网络结构是论文中提出的情感分类方法的核心组成部分。具体而言,在实际应用中,首先对推文进行预处理和关键词提取,然后利用预训练的模型生成推文和短语的特征向量。基于这些特征,建立一个异构网络,其中推文、短语和情感标签作为不同的节点类型。图中展现的架构能够利用异构网络结构来识别文本中的情感,其目的是提高模型在情感分类任务上的准确性和鲁棒性。这种架构在处理诸如推文这类非正式文本,和处理多种情感标签时表现出优势。总而言之,该图清楚地概括了论文提出的异构网络框架,为理解其核心机制提供了直观的视觉辅助。

异构图神经网络层结构
#

🔼 该图展示了一个异构图神经网络(Heterogeneous Graph Neural Network, HGNN)层级的结构示意图。此图详细描绘了如何在不同的节点类型(tweets、phrases 和 emotions)之间进行信息传递和聚合,以实现更精准的文本情感分类。图中清晰展示了三个主要类型的节点:tweets(以绿色表示)、phrases(以黄色表示)和 emotions(以蓝色表示)。每种节点类型都以其在网络中的表示形式 H(L-1) 作为输入,经过异构图神经网络层的处理后,输出为更新后的节点表示 H(L)。在 Lth Hetero GNN Wrapper layer 中,有两个关键的子层:Lth Hetero GNN Layer for tweet<->phrase 和 Lth Hetero GNN Layer for phrase<->emotion。这两层分别处理 tweets 与 phrases 之间的信息传递,以及 phrases 与 emotions 之间的信息传递。首先,tweets 节点和 phrases 节点的初始表示(Htweet(L-1) 和 Hphrase(L-1))被输入到 Lth Hetero GNN Layer for tweet<->phrase 层。该层计算 tweets 和 phrases 之间的新表示,并将计算结果传递到下一层。随后,Hphrase(L-1) 和 Hemotion(L-1) 被输入到 Lth Hetero GNN Layer for phrase<->emotion 层,该层处理 phrases 与 emotions 之间的信息传递。通过这两层处理,每个节点的表示都得到了更新,使得模型能够更好地捕捉文本中情感的细微差别。图中用箭头清晰地标示了信息流动的方向:从输入表示 H(L-1) 到经过处理的输出表示 H(L)。这种多层的处理方式使得模型不仅能理解单个节点的信息,还能捕捉节点之间复杂的关联关系,从而提高情感分类的准确性。此外,该图还强调了该层通过计算每个消息类型的嵌入,然后聚合这些嵌入以形成统一节点表示的方式。这种方法允许模型同时处理不同类型的信息,并有效地利用这些信息进行情感分类。该图是理解该研究论文中提出的异构图神经网络结构及其如何工作的关键。

异构图神经网络架构
#

🔼 该图展示了一个用于情感识别的异构图神经网络(HGNN)的整体架构。该架构的核心目标是利用文本数据(如推文)及其相关短语,并结合情感标签来提升情感分类的准确性。该图清晰地展现了数据处理流程,从原始输入到最终情感分类的演变。

具体来说,输入层接收三种类型的特征:推文特征、短语特征和情感特征。这些特征分别以绿色、黄色和蓝色矩形表示。这些特征被输入到异构图神经网络层(Lth Hetero Gnn Layer),这是一个核心组件,负责处理异构数据,并学习不同类型节点之间的关系。这个步骤使用了异构图卷积操作,能够有效地融合来自不同节点类型(如推文、短语和情感)的信息。

经过异构图卷积层后,数据会经过批标准化层(Batch Norm Layer),以提高训练的稳定性和速度。随后,数据通过Leaky ReLU激活函数,引入非线性,使得网络可以学习更复杂的数据模式。处理后的数据接着进入线性层(Linear Layer),该层执行最终的分类任务,将节点表示映射到情感类别。输出层包含了七个情感类别,分别是:愤怒、厌恶、恐惧、喜悦、中性、悲伤和惊讶,每个类别都用一个带有虚线的圆圈表示。

总体而言,该图精确地描绘了HGNN模型如何处理输入数据,并在考虑不同类型节点关系的情况下进行情感分类。这种架构利用了图神经网络处理复杂关系的能力,以及深度学习提取特征的能力。值得注意的是,图中的流程图突出了多模态特征(文本特征和情感标签)在情感分析任务中的重要性,表明该模型具有处理复杂、异构数据集的潜力,从而提升情感分类的性能。该模型采用多层神经网络结构来增强其对复杂情绪特征的学习和表达能力,为情感识别提供了一个有效的框架。

超参数优化对F1分数的影响
#

🔼 该图表展示了超参数优化对模型F1分数的影响,分别针对隐藏层大小和注意力层大小进行了分析。左图显示了随着隐藏层大小的增加,平均F1分数的变化趋势。初始阶段,F1分数随着隐藏层大小的增加而显著提升,当隐藏层大小达到约300时,F1分数接近0.6。之后,随着隐藏层大小的进一步增加,F1分数的提升变得缓慢,并在400左右趋于平稳。这表明,对于该模型,隐藏层大小的增加在一定范围内能够有效提升性能,但过大的隐藏层可能会导致计算成本的增加,而性能提升不明显。右图显示了注意力层大小对平均F1分数的影响。可以看到,注意力层大小的变化对F1分数的影响相对较小,整体趋势比较平稳。F1分数在0.5左右波动,并且随着注意力层大小的增加,并没有显著的上升或下降趋势。这说明在本实验中,注意力层的大小不是影响模型性能的关键因素。综合来看,该图表揭示了超参数优化过程中,隐藏层大小对模型性能的重要性,以及注意力层大小在该特定模型中的影响较小。实验结果表明,合适的隐藏层大小是提升模型性能的关键,而调整注意力层大小可能对性能没有显著影响,为进一步的模型优化提供了重要参考。

该图横轴是模型参数,纵轴是 F1 值。左图展示隐藏层大小的影响,横轴是隐藏层大小,从100到500。纵轴是平均 F1 分数。曲线显示,随着隐藏层增大,F1 值开始迅速增长,当隐藏层大小达到300时趋于平稳,继续增加隐藏层大小, F1 值变化不大。右图展示注意力大小的影响,横轴是注意力大小,从100到500,纵轴是 F1 分数。曲线显示,注意力大小的变化对 F1 分数几乎没有影响,F1 值一直在 0.5 上下波动。

总的来说,这张图表主要用于展示超参数(隐藏层大小和注意力层大小)对模型性能(通过 F1 分数来衡量)的影响。通过图表,可以观察到增加隐藏层的大小可以显著提高模型性能,但过大的隐藏层可能会导致过拟合;而调整注意力层的大小对模型性能没有显著影响。这些信息对于优化模型结构和提高模型的泛化能力非常有帮助。

GoEmotion模型性能对比
#

🔼 该图表展示了不同模型在GoEmotions数据集上的性能比较,包括准确率(Accuracy)、F1分数(F1)、精确率(Precision)和召回率(Recall)四个指标。图表横轴代表模型在一致性数据集上的表现(Compliance),纵轴代表模型在不一致性数据集上的表现(Non-Compliance)。其中,红色加号(+)代表RoBERTa模型,红色方块(□)代表Distil模型,红色菱形(◊)代表Distil-v2模型,而彩色圆点(◦)则表示HGNN模型在不同训练实例下的表现,颜色由浅到深表示与RoBERTa标签的差异程度。在准确率图中,可以看到HGNN模型(彩色圆点)整体表现优于基线模型(红色符号),尤其是在不一致性数据集上。F1分数图也显示了类似的趋势,HGNN模型在不一致性数据上的表现明显优于基线模型。在精确率图,基线模型RoBERTa表现较好,HGNN模型则较为集中,其性能总体略低于RoBERTa。而在召回率图上,HGNN模型同样展示出了更优的表现,尤其在不一致性数据集上大幅领先于基线模型。值得注意的是,颜色较深的HGNN模型在不一致性数据集上表现更好,表明HGNN模型在处理标签不一致的数据时,通过与RoBERTa的标签产生一定差异,可以获得更好的性能。此外,Distil-v2模型在各个指标上的表现相对较低,可能由于在Friends数据集上的过拟合,使其在GoEmotions数据集上的泛化能力较弱。RoBERTa模型在精确率上的表现优于Distil,可能是因为其更大的模型架构使其能够更好地捕捉复杂的模式。总体而言,HGNN模型在准确率、F1分数和召回率上均优于基线模型,这表明其在处理情感分类问题上的有效性,尤其是在处理不一致标签的情况下。然而,HGNN模型在精确率上相对较弱,这提示我们在未来的研究中需要进一步优化模型,平衡精确率和召回率。

Friends数据集模型性能比较
#

🔼 该图展示了在Friends数据集上不同模型性能的比较,使用了散点图形式,分别展示了准确率(Accuracy)、F1得分(F1)、精确率(Precision)和召回率(Recall)四个指标。横轴代表模型在一致性标签集上的表现,纵轴代表模型在不一致性标签集上的表现。图中红色加号(+)代表RoBERTa模型,红色方块(□)代表Distil模型,红色菱形(◊)代表Distil-v2模型。HGNN模型的结果用彩色圆点表示,颜色深浅代表其与RoBERTa模型标签的差异程度,颜色越深,差异越大。观察可知,Distil-v2模型在该数据集上表现突出,因为它专门针对该数据集进行了微调,无论是在一致性还是不一致性标签集上都达到了最高水平。相比之下,HGNN模型虽然表现良好,但其性能不如Distil-v2,这可能与Friends数据集的规模较小和上下文信息相对稀疏有关。此外,RoBERTa和Distil模型在Friends数据集上的表现相对较低,这表明这些模型可能不太适合处理此类对话数据集。特别需要注意的是,在准确率和F1得分图中,HGNN模型的散点分布较为分散,这意味着其性能的稳定性有待提高。Precision和Recall图中,也呈现了相似的特点,表明模型在Friends数据集上可能存在过拟合或者泛化能力不足的问题。图中颜色较深的HGNN点通常位于左下方,表示这些模型的表现与RoBERTa模型差异较大且性能相对较低。总的来说,此图清晰地展示了不同模型在Friends数据集上的优劣,并指出了HGNN模型在该特定数据集上的局限性,即需要更多上下文信息以发挥其性能。

TEC数据集模型性能对比
#

🔼 该图表展示了在 Twitter 情感语料库(TEC)数据集上,不同模型在情感分类任务中的性能比较。图中使用了四个散点图,分别表示准确率(Accuracy)、F1 分数、精确率(Precision)和召回率(Recall)四个评估指标。每个散点图的横轴代表在一致性标签集(Compliance set)上的表现,纵轴代表在非一致性标签集(Non-Compliance set)上的表现。其中,一致性标签集指的是RoBERTa和Distil模型对情感标签达成一致的推文,而非一致性标签集指的是两个模型标签不一致的推文。图例中红色加号代表RoBERTa模型,红色方块代表Distil模型,红色菱形代表Distil_v2模型,彩色圆点代表HGNN模型。HGNN模型的颜色从黄到蓝,颜色越深代表该模型与RoBERTa模型标签的差异越大。从图表中可以观察到,HGNN模型在准确率、F1分数和召回率上均优于RoBERTa、Distil和Distil_v2三个基线模型。特别是在召回率上,HGNN模型的表现尤为突出,这说明该模型能较好地识别出情感标签。此外,HGNN模型在处理非一致性标签集时也表现出较强的鲁棒性。精确率方面,HGNN模型相比基线模型稍有不足。值得注意的是,Distil_v2模型在此数据集上表现最差,表明其在Friends数据集上的过拟合问题。总的来说,该图表表明,HGNN模型在TEC数据集上具有良好的泛化能力和情感分类性能,尤其是在处理标签不一致的数据时。

深度解读
#

标签一致性
#

本论文通过引入共识驱动的训练集,解决了多个微调语言模型在情感分类中标签不一致的问题。标签不一致是当前情感分类模型面临的主要挑战之一,尤其是在社交媒体等非正式文本中,不同模型对同一文本的情感标签可能产生冲突,导致分类准确性下降。论文提出的方法通过筛选多个模型在标签上达成一致的实例,构建了一个高质量的训练集,从而显著提高了分类准确性。实验结果表明,该方法在非一致性数据集上的分类准确率提升了超过5%。这种共识驱动的策略不仅提高了模型的稳定性,还为情感识别任务提供了新的基准。然而,该方法在处理稀疏数据集时仍存在一定的局限性,未来的研究可以进一步探索如何在不牺牲泛化能力的情况下,优化标签一致性策略。

异质图神经网络
#

论文提出了一种异质图神经网络(HGNN)架构,用于情感分类任务。该架构通过结合微调语言模型和异质图结构,能够有效捕捉文本中的复杂情感模式。异质图网络的优势在于其能够处理多种类型的节点(如文本、短语和情感标签)及其之间的关系,从而在情感分类任务中表现出色。实验结果表明,HGNN模型在多个数据集上的准确率、F1分数和召回率均优于基线模型。特别是在处理非一致性标签时,HGNN模型通过引入基于注意力的聚合机制,能够更好地捕捉上下文依赖关系,进一步提升分类性能。然而,HGNN模型在精确度方面存在一定的不足,尤其是在处理非一致性标签时,模型的预测结果可能会出现一定的偏差。未来的研究可以进一步优化特征工程和决策过程,以平衡模型的精确度和召回率。

注意力机制
#

论文中的注意力机制在情感分类任务中发挥了关键作用。通过引入基于注意力的聚合策略,模型能够更好地捕捉文本中的情感线索,特别是在处理复杂和模糊的情感表达时表现出色。注意力机制的优势在于其能够动态调整不同特征的权重,从而在异质图网络中实现更有效的信息聚合。实验结果表明,基于注意力的聚合方法在F1分数和召回率上显著优于简单的均值聚合方法。这种机制不仅提高了模型的分类性能,还为情感识别任务提供了更强的解释性。然而,注意力机制的计算复杂度较高,可能会增加模型的训练时间。未来的研究可以探索更高效的注意力机制,以在不牺牲性能的情况下降低计算成本。

数据集泛化
#

论文通过在多个数据集上的实验,验证了所提出模型的泛化能力。实验结果表明,HGNN模型在未见过的数据集(如TEC)上表现出色,展示了其强大的泛化能力。这种泛化能力的提升主要归功于共识驱动的训练策略和异质图网络的结合,使得模型能够适应不同数据集的特征和情感表达方式。特别是在处理社交媒体等非正式文本时,HGNN模型能够有效捕捉上下文中的情感线索,从而在复杂的情感分类任务中表现出色。然而,模型在处理稀疏数据集(如Friends)时表现相对较弱,这表明模型的性能仍然依赖于数据集的丰富性。未来的研究可以探索如何通过引入外部知识或多模态数据,进一步提升模型在稀疏数据集上的表现。

未来研究方向
#

论文指出了未来研究的几个重要方向。首先,多模态数据的整合是一个值得探索的方向,通过结合图像、视频等多模态信息,可以进一步提升情感识别的准确性。其次,低资源语言的情感识别也是一个重要的研究方向,特别是在全球化的社交媒体平台上,如何在不同语言之间实现情感标签的一致性是一个挑战。此外,模型的可解释性也是未来研究的关键,通过引入更先进的解释性AI技术,可以帮助研究人员更好地理解模型的决策过程。最后,伦理问题也需要得到更多的关注,特别是在情感识别技术应用于敏感场景时,如何确保数据的隐私和安全性是一个亟待解决的问题。这些研究方向的探索将为情感识别技术的发展提供新的思路和工具。

完整论文
#