Skip to main content
  1. 论文/

自监督训练的人工神经网络中的涌现语言结构

·5889 words·12 mins
人工神经网络 自监督学习 句法 语言结构 层次结构 语言理解 计算语言学 句法树 核心参考
Table of Contents

✏️ Christopher D. Manning
✏️ Kevin Clark
✏️ John Hewitt
✏️ Urvashi Khandelwal
✏️ Omer Levy

要点总结
#

人类语言的理解依赖于构建丰富的层次结构,而这些结构从未被显式观察到。传统上,计算语言学通过手工标注的树库来训练模型,但这种方法成本高且无法解释儿童如何从数据中学习结构。近年来,自监督学习在自然语言表示学习方面取得了巨大进展,模型通过预测上下文中的掩码词来学习语言结构。本文展示了现代深度上下文语言模型如何在没有显式监督的情况下学习语言的主要结构

本文开发了识别神经网络中涌现的层次结构的方法,并展示了这些模型的组件专注于句法关系和指代消解。通过线性变换,模型能够捕捉句法树距离,甚至近似重建语言学家假设的句子树结构。这些结果解释了为什么这些模型在许多语言理解任务中带来了巨大改进,并表明大规模手工标注的句法数据可能不再必要。

关键要点
#

论文重要性
#

这项研究揭示了自监督学习在语言结构学习中的潜力,表明模型能够从简单的预测任务中涌现出复杂的语言结构。这不仅对自然语言处理领域有重大影响,还为语言习得的逻辑问题提供了新的视角。未来的研究可以进一步探索如何利用自监督学习来减少对标注数据的依赖,并推动更高效的语言模型训练方法。


图表分析
#

BERT模型结构示意图
#

🔼 该图展示了BERT(Bidirectional Encoder Representations from Transformers)模型的基本架构。BERT模型是一种基于Transformer的深度学习模型,主要用于自然语言处理任务。图中,底部是“Masked Input”,表示输入序列中的某些词被替换成了“[MASK]”标记,这是BERT的预训练方式之一。红色块代表词嵌入(Word embeddings),这些词嵌入是输入序列中每个词的初始向量表示。然后,这些词嵌入被送入Transformer网络(中间的黑色边框部分),经过多层处理,生成上下文相关的词嵌入(Contextualized embeddings),图中用蓝色块表示。顶部的“Predictions”表示模型最终的预测输出,即被mask掉的词。

Transformer网络的核心是自注意力机制,该机制使得模型在处理每个词时都能考虑序列中其他词的信息,从而更好地理解上下文。模型通过预测被mask掉的词来学习语言的表示。模型结构中红色的部分代表输入的单词的embedding,模型通过Transformer进行编码,输出上下文相关的embedding(蓝色部分),最后使用这些embedding预测masked的单词。这种结构允许BERT捕捉词与词之间的复杂关系,无论是语法还是语义层面的。BERT的这种训练方式被称为自监督学习,因为它不需要人工标注数据,而是通过自身生成“标签”进行学习。这种方式使得BERT能够利用大量未标注的文本数据进行预训练,从而获得强大的语言表示能力。图中还展示了Transformer网络内部的连接方式,这些连接表示注意力机制如何在不同层级之间传递信息。总的来说,这张图简洁明了地说明了BERT模型是如何从原始文本输入生成上下文相关的词嵌入,并最终进行词预测的。

更多图表分析

例句的句法依存关系树
#

🔼 该图展示了一个例句的句法依存关系树。该树以“was”作为根节点,清晰地描绘了句子中各个词语之间的依存关系,例如“chef”是“ran”的主语,“store”是“to”的宾语,“food”是“out”的宾语。连线表示词语间的依存关系,其中连线的方向指示了依存关系的方向,从支配词指向被支配词。该图明确地展示了句子中不同成分之间的结构关系,这与传统的语言学句法分析一致。这种结构化的表示对于理解句子的含义至关重要,因为它揭示了词语之间的语义和句法关系,而不是简单的线性序列。该树形结构体现了自然语言的层级结构,例如“ran to the store” 是修饰 chef 的定语从句, 而 “out of food” 是 was 的一个补语。这种结构化的表示允许我们理解句子中词语之间的语义角色和功能关系。该图强调了语言理解不仅仅是对单词的简单理解,还包括对句子内部结构关系的把握,而这种结构关系正是语言复杂性和歧义性的根源。通过对句法结构进行可视化,我们可以更直观地理解句子,进而更好地理解文本背后的含义。

主谓一致的层级结构
#

🔼 该图展示了主谓一致关系在句子中的两种表示方式。左侧部分描绘了包含一个吸引词(“pizzas”)的句子“chef who made the pizzas is/are here”,其中用虚线箭头突出了主语(“chef”)和动词(“is/are”)之间的一致性关系。这种表示方法强调了主语和动词在数量上需要保持一致,即单数主语对应单数动词,复数主语对应复数动词。尽管句子中存在一个与主语数量不一致的吸引词“pizzas”,但正确的动词形式应该与主语“chef”保持一致。右侧部分则展示了该句子的层级结构。通过树状图,可以清晰地看到“chef”是主语,“is/are”是谓语。中间的定语从句“who made the pizzas”则作为修饰成分,不影响主谓之间的数量一致性。图中的连线显示了句子中词语之间的句法关系,表明了即使在复杂的句法结构中,主语和动词之间的关系仍然受到层级结构的约束,而不是简单的线性距离。图示还表明,神经网络需要理解这种层级结构才能正确预测动词形式,说明了语言模型在进行语言理解时,并非仅依赖于词语的线性顺序,也需要捕捉句子的层级结构。这一发现揭示了神经网络在处理语言时具有一定的抽象能力,能够在没有显式监督的情况下学习句子的结构信息。

Transformer注意力机制图解
#

🔼 这张图展示了 Transformer 模型中的自注意力机制的工作原理,它详细解释了如何计算并使用注意力权重。整个过程分为四个主要步骤,从左到右依次展示:首先,每个输入词的向量表示(例如“I”、“went”、“to”、“the”、“store”)通过线性变换被转换为查询(query, q)、键(key, k)和值(value, v)向量。接着,通过计算查询向量与所有键向量的点积,并进行归一化处理,得到注意力权重(α),这些权重表明每个词在计算当前词表示时应该给予多少关注。然后,每个值向量都根据其对应的注意力权重进行加权求和,得到最终的输出向量(y)。最后,经过训练后,这些注意力权重可以与语言学标注进行比较,以揭示模型学习到的句法结构。图中还标注了一个“object of preposition”的例子,高亮的连线表明,模型在处理“to”这个介词时,会重点关注“store”这个介词的宾语。该图通过直观的图形方式,帮助我们理解Transformer模型是如何通过自注意力机制来捕捉句子中不同词之间的关系的。具体来说,图中展示了如何通过线性变换生成 query, key, value 向量,然后如何使用 query 和 key 计算 attention weights,以及如何使用 attention weights 和 value 计算最终的输出。这反映了 Transformer 模型在处理文本数据时,如何动态地调整不同位置的词之间的依赖关系,并且能够学习到丰富的语言结构。

BERT attention heads
#

🔼 该图展示了BERT模型中不同注意力头在处理句子时的行为模式。每个子图代表一个特定的注意力头,并展示了该注意力头在句子中如何关注不同的词。这些注意力头的行为揭示了BERT模型如何学习语言的结构。每个子图都展示了一个具体的例子,说明了注意力头是如何关注句子中特定关系的词的。例如,‘Head 8-10’显示直接宾语主要关注它们的动词,准确率达到86.8%;‘Head 8-11’展示了名词修饰语关注它们的名词,准确率高达94.3%;而’Head 7-6’则显示了所有格代词和撇号关注其对应的名词短语的头部,准确率约为80.5%。其他的注意力头也展示了类似的模式,比如介词关注其宾语,被动语态助动词关注它们修饰的动词,以及共指的提及关注它们的前项。这些结果表明,BERT模型通过自监督学习,能够捕捉到句子中词语之间的各种句法和语义关系,而无需明确的标签。每个注意力头都专注于不同的关系,这些关系协同工作,使模型能够理解复杂的句子结构。该图强调了自监督学习的强大能力,以及神经网络在没有明确指导的情况下学习语言结构的潜力。

BERT attention可视化
#

🔼 该图展示了BERT模型中注意力机制的可视化结果,通过连线的方式呈现了不同词语之间的注意力权重关系。图中包含两组示例,分别针对“直接宾语”和“所有格代词”。

在“直接宾语”示例中,可以看到“funds”这个词,作为直接宾语,其注意力主要集中在动词“goes”上,这表明模型能够识别出句子中的动宾关系。连线的粗细表示注意力权重的大小,粗的线表示更高的注意力值。其他词语的注意力分布也显示了模型对句子结构的理解,例如介词短语中的词语与其修饰的成分之间存在关联。

在“所有格代词”示例中,“his”的注意力主要集中在“autograph”这个词上,表明模型能够捕捉所有格代词与其修饰的名词之间的关系。同样,“‘s”的注意力也指向了它所修饰的名词“McGwire”。这体现了模型在理解所有格结构方面的能力。此外,该图还展示了BERT模型如何处理特殊标记,如[CLS]和[SEP],这些标记通常表示句子的开始和结束。

总的来说,这张图清晰地展示了BERT模型在处理不同类型的语法关系时,注意力机制是如何工作的。这种可视化有助于理解模型内部的工作原理,并支持了文章中关于BERT模型能够学习到语言结构的论点。此外,这些可视化结果还表明,BERT模型不仅仅是一个黑盒子,其内部机制可以通过分析注意力权重来理解。

结构探测方法可视化
#

🔼 该图展示了使用结构探测方法在神经网络的内部表示中寻找句法树的过程。它通过四个子图逐步解释了如何从词向量空间重建句法树。子图 A 展示了句子“The chef who ran to the store was out of food”中每个词在上下文中的内部向量表示。这些向量在初始状态下可能没有明显的句法结构。子图 B 说明了结构探测方法如何找到一个线性变换,使得变换后的空间中词向量之间的平方L2距离能够最好地重构词之间的句法树路径距离。这意味着在变换后的空间中,句法上相关的词在向量空间中也更接近。子图 C 展示了在找到合适的线性变换后,句法树的结构如何被向量空间的几何结构所表示。在此空间中,在句法树中距离较近的词在向量空间中也相对较近。子图 D 最终展示了如何通过在潜在的句法空间中取最小生成树来近似恢复句法树。这个过程将词向量之间的距离关系转换回了我们熟悉的树形结构,从而揭示了神经网络模型中隐含的句法知识。该图表明,尽管神经网络模型最初只是基于词序列进行训练,但其内部表示却能够捕捉到复杂的句法结构,而这些结构可以通过结构探测方法有效地提取出来。这个发现对于理解神经网络模型如何学习语言以及如何利用这些知识进行自然语言处理任务具有重要意义。

深度解读
#

自监督学习
#

本文探讨了通过自监督学习训练的大型人工神经网络如何学习语言结构。自监督学习的核心在于模型通过预测上下文中的掩码词来学习语言结构,而无需显式的标注数据。这种方法与传统的监督学习不同,后者依赖于人工标注的树库(treebanks)。研究表明,现代深度上下文语言模型能够在不依赖显式监督的情况下,学习到语言的主要结构,包括句法关系和指代关系。这种自监督学习方法的优势在于其能够从大量未标注数据中自动生成监督信号,从而避免了高昂的人工标注成本。此外,自监督学习还为语言模型的泛化能力提供了强大的支持,使其能够在多种语言理解任务中表现出色。然而,这种方法也存在一定的局限性,例如模型可能在某些复杂的语言现象上表现不佳,未来的研究可以进一步探索如何提升模型在这些方面的表现。

句法结构
#

本文展示了现代语言模型如何在没有显式监督的情况下学习到句法结构。通过线性变换,模型能够捕捉到句法树中的距离信息,从而近似重建句子的树结构。这一发现表明,语言模型不仅能够学习到词汇的共现统计信息,还能够捕捉到更深层次的句法关系。例如,模型能够正确预测主谓一致关系,即使句子中存在干扰词。这种能力表明,语言模型已经具备了一定的句法敏感性,能够理解句子的层次结构,而不仅仅是线性顺序。这一发现对自然语言处理领域具有重要意义,因为它表明大规模标注数据可能不再是许多任务的必要条件。未来的研究可以进一步探索如何利用这种自监督学习方法来提升句法分析的精度和效率。

注意力机制
#

本文深入研究了BERT模型中的注意力机制,发现其能够捕捉到丰富的语言结构信息。注意力机制通过动态分配权重来指示模型在处理某个词时应该关注哪些其他词,从而帮助模型理解句子的句法和语义关系。研究表明,BERT中的多个注意力头能够分别捕捉到不同的语言现象,例如名词性主语、直接宾语等句法关系。这种多头的注意力机制使得模型能够在不同的层次上理解句子的结构,从而提升其在语言理解任务中的表现。此外,本文还提出了通过注意力头来探测模型内部语言结构的方法,进一步验证了BERT模型在句法和指代关系上的表现。未来的研究可以进一步探索如何优化注意力机制,以提升模型在复杂语言现象上的表现。

结构探测
#

本文提出了一种结构探测方法,用于从BERT模型的内部表示中提取句法树信息。结构探测方法通过定义一个距离度量来近似句法树中的路径距离,从而揭示模型内部表示中隐含的句法结构。实验表明,BERT模型的内部表示中确实嵌入了句法树结构,且这种结构可以通过线性变换近似重建。这一发现表明,语言模型不仅能够学习到词汇的语义信息,还能够捕捉到句子的层次结构。结构探测方法为研究语言模型的内部表示提供了一种新的工具,未来的研究可以进一步探索如何利用这种方法来提升模型在句法分析和其他语言理解任务中的表现。此外,结构探测方法还可以用于研究其他类型的语言结构,例如语义角色和指代关系。

未来方向
#

本文为未来的自然语言处理研究提供了多个值得探索的方向。首先,可以进一步研究如何优化自监督学习方法,以提升模型在复杂语言现象上的表现。例如,如何在不依赖大规模标注数据的情况下,提升模型在句法分析和指代消解任务中的表现。其次,可以探索如何将自监督学习方法应用于其他语言任务,例如机器翻译和文本生成。这些任务同样可以从自监督学习中受益,因为它们也需要模型具备强大的语言理解能力。此外,未来的研究还可以探索如何结合自监督学习和监督学习,以进一步提升模型的性能。最后,可以进一步研究语言模型的内部表示,探索如何利用结构探测方法来揭示模型在语义和句法上的表现。这些研究方向的探索将对自然语言处理领域的发展产生深远的影响。

完整论文
#