一文彻底搞懂深度学习 - Transformer 原创
“聚是一团火”,在Transformer模型的孕育过程中,Google的Transformer八子凭借对技术的深度洞察与创新精神,巧妙地将复杂的自然语言处理(NLP)任务转化为基于注意力机制的计算框架,解决了长序列依赖问题。
“散是满天星”,随着Transformer模型的广泛传播与应用,这群研究者们各自离开了Google,他们依然在不同的领域和团队中继续发挥着重要的作用。
Transformer模型凭借其开创性的自注意力机制,在文本分类、机器翻译、情感分析、问答系统等广泛的NLP任务中均取得了显著成效,已成为当前NLP领域的核心模型,为大语言模型的兴起奠定了坚实的基础。
本文将从总体架构、注意力机制、向量化、前馈神经网络、残差连接和层归一化和模型训练,带您一文彻底搞懂Transformer。
Transformer
一、总体架构
Transformer总体架构是什么?Transformer模型采用编码器-解码器架构,通过堆叠多头自注意力机制和前馈神经网络子层,有效处理序列数据并捕获长距离依赖关系。
序列到序列模型(Seq2Seq)是什么?序列到序列模型(Seq2Seq)通过编码器和解码器的结构,将输入序列映射为输出序列,利用注意力机制捕捉输入关键信息,并通过训练策略生成目标序列。
Transformer总体架构有哪些组成部分?Transformer总体架构由输入部分、堆叠的编码器层、堆叠的解码器层和输出部分组成,其中编码器和解码器层均包含多头自注意力子层和前馈神经网络子层,解码器还额外包含跨注意力子层。
- 输入部分:将原始输入序列通过嵌入和位置编码转化为模型可处理的向量序列。
- 编码器部分:由多层堆叠而成,每层包含多头自注意力和前馈神经网络,用于捕获输入序列中的依赖关系。
- 解码器部分:与编码器结构相似但包含额外的跨注意力子层,用于结合编码器输出和解码器当前状态生成输出序列。
- 输出部分:将解码器生成的向量通过softmax映射到目标词汇表,选择最可能的输出单词,并可应用损失函数进行正则化。
二、注意力机制
注意力机制是什么?注意力机制是一种通过计算输入数据的权重,使模型能够专注于关键信息并忽略不相关信息的机制。
注意力计算公式(Q、K、V)是什么?在注意力机制中,Q(查询)、K(键)、V(值)分别是从输入数据中提取的、用于计算注意力权重的向量表示。
- Q(查询):与键比较,找相似。
- K(键):与查询匹配,定权重。
- V(值):与权重加权求和,得输出。
注意力分数是什么?注意力分数是衡量输入信息各部分对当前任务重要性的量化指标,通过计算得到并用于引导模型关注关键信息。
Transformer中三种注意力机制是什么?Transformer中的三种注意力机制分别是自注意力(Self-Attention)、交叉注意力(Cross-Attention)和因果注意力(Causal Attention)。
- 自注意力:位于Transformer编码器中,允许每个序列元素直接访问其他所有序列元素,捕捉全局依赖关系。
- 交叉注意力:连接Transformer的编码器和解码器,使解码器在生成输出序列时能够充分利用编码器提取的输入序列信息。
- 因果自注意力:位于Transformer解码器中,确保每个序列元素的输出只依赖于前面的序列元素,实现自回归生成。
三、向量化
Transformer向量化是什么?Transformer向量化是将输入数据(如文本、图像等)通过嵌入层转换为低维连续向量表示的过程,以捕捉数据的潜在关系和结构,为后续模型训练和推理提供基础。
Transformer有哪些向量化(Embedding)?Transformer的两种Embedding分别是Input Embedding(输入嵌入),用于将离散输入数据转换为连续向量表示;以及Position Embedding(位置嵌入),用于为输入序列中的每个位置提供独特向量表示,以捕捉序列位置信息。
- Input Embedding(输入嵌入):将输入数据(如单词、字符等)映射到低维连续向量空间,捕捉数据的潜在语义和结构信息。
- Position Embedding(位置嵌入):为输入序列中的每个位置提供独特的向量表示,以捕捉序列中的位置信息,帮助模型理解单词或字符的顺序关系。
四、前馈神经网络
Transformer前馈神经网络(FFNN)是什么?Transformer前馈神经网络(FFNN)是Transformer模型中的非线性变换层,用于对自注意力层的输出进行进一步处理,以增强模型的表达能力和捕捉输入数据的复杂特征。
Transformer前馈神经网络(FFNN)网络结构是什么?Transformer前馈神经网络(FFNN)的网络结构由输入层、经两个线性变换(中间夹有非线性激活函数ReLU)的隐藏层,以及输出层组成,用于对自注意力层的输出进行非线性变换。
- 输入层:接收自注意力层的输出向量,每个向量代表输入序列中一个位置的特征。
- 第一个线性变换:将输入向量维度从
d_model
变换到更高的d_ff
,以捕捉复杂特征。 - 非线性激活函数:应用ReLU激活函数,增加网络的非线性表达能力。
- 第二个线性变换:将数据维度从
d_ff
变换回d_model
,匹配后续层输入要求。 - 输出层:输出变换后的向量,作为Transformer模型中下一个组件的输入。
五、残差连接和层归一化
Transformer残差连接和层归一化是什么?Transformer中的残差连接通过跳跃连接保持梯度有效性,层归一化则通过稳定激活值分布提升训练稳定性和加速收敛。
- 残差连接(Residual Connections):通过添加跳跃连接,使信号可以直接跨层传播,从而缓解深层网络的退化问题并加速训练。
- 层归一化(Layer Normalization):将输入向量维度从
d_model
变换到更高的d_ff
,以捕捉复杂特征。
六、模型训练
Transformer模型如何训练?Transformer模型的开发与应用涵盖四个核心流程:数据集的选择与预处理、模型的构建与训练、性能的评估与优化,以及最终的部署与推理应用。
- 数据集选择与预处理:精心挑选并预处理高质量数据集,为模型训练奠定坚实基础。
- 模型构建与训练:基于选定的Transformer架构,配置超参数并训练模型,以最小化损失函数。
- 性能评估与优化:利用验证集评估模型性能,通过调整超参数和改进架构来优化模型。
- 模型部署与推理应用:将训练好的模型部署到实际应用中,实现高效准确的推理。
本文转载自公众号架构师带你玩转AI 作者:AllenTang
原文链接:https://mp.weixin.qq.com/s/4s2scpFzc2eQ4oF2xGrUKg