[论文阅读] Transformer(Attention Is All You Need)

[论文阅读] Transformer(Attention Is All You Need)

单位: Google

会议: NeurIPS 2017

论文地址: arxiv

代码: tensorflow/tensor2tensor official

在这里插入图片描述

Seq2Se

在这里插入图片描述

Encoder和Decoder在早期一般是RNN模块,后来引入了LSTM或者GRU模块,核心思想都是通过Encoder编码成一个表示向量,即上下文编码向量,然后交给Decoder来进行解码,翻译成目标语言

RNN的局限

  • 对于不同输入和输出长度,中间的上下文编码向量长度固定的,仅仅靠一个固定长度的上下文编码向量包含的信息有限

  • RNN 本质是一个马尔科夫决策过程无法很好地学习到全局的结构信息

  • 难以并行化,速度慢

CNN

在 FaceBook 的论文(Convolutional Sequence to Sequence Learning)中纯粹使用CNN也完成了 Seq2Seq 的学习

CNN 方便并行,而且容易捕捉到一些全局的结构信息

但CNN 事实上只能获取局部信息,是通过层叠来增大感受野

在这里插入图片描述

在Transformer中,完全抛弃了RNN和CNN等网络结构,仅仅采用Attention机制就取得了很好的效果,具有更好的质量,同时具有更高的并行性和更少的训练时间

这篇论文主要贡献之一是它表明了内部注意力在机器翻译(甚至是一般的 Seq2Seq 任务)的序列编码上是相当重要的,而之前关于 Seq2Seq 的研究基本都只是把注意力机制用在解码端。

Transformer Architecture

在这里插入图片描述
Transformer结构可以表示为Encoder和Decoder两个部分

Encoder和Decoder主要由Self-Attention和Feed-Forward Network两个组件构成

Self-Attention由Scaled Dot-Product Attention和Multi-Head Attention两个组件构成。

Self-Attention

Attention 机制来自于人类视觉注意力机制,人们视觉在感知东西的时候一般不会是一个场景从到头看到尾每次全部都看,而往往是根据需求观察注意特定的一部分

在这里插入图片描述注意力函数的本质可以被描述为一个查询(query)到一系列(键key-value值)对的映射

给定一个和任务相关的查询查询向量 q,通过计算与Key的注意力分布并附加在Value上,从而计算Attention Value

引入attention的好处

  • 注意力允许解码器以不同程度的权重利用到编码器的所有信息

  • 通过检查注意力分布,可以看到解码器在关注什么,可解释性

Self-Attention的QKV来自同一个输入,也就是说在序列内部做 Attention,寻找序列内部的联系,故称为自注意力层

Scaled Dot-Product Attention

在这里插入图片描述
Attention ⁡ ( Q , K , V ) = softmax ⁡ ( Q K ⊤ d k ) V \operatorname{Attention}(\boldsymbol{Q}, \boldsymbol{K}, \boldsymbol{V})=\operatorname{softmax}\left(\frac{\boldsymbol{Q} \boldsymbol{K}^{\top}}{\sqrt{d_{k}}}\right) \boldsymbol{V} Attention(Q,K,V)=softmax(dk QK)V

计算过程

  1. 对每个输入单词 x 1 , x 2 , x 3 x^1,x^2,x^3 x1,x2,x3转化成嵌入向量
  2. 根据嵌入向量分别得到 q q q k k k v v v三个向量
  3. 然后将 q q q和所有 k k k进行点乘计算得 α \alpha α
  4. 通过SoftMax转换为概率分布 α ^ \hat{\alpha} α^
  5. 将概率分布和所有 v v v进行加权求和得到输出 b b b

在这里插入图片描述

为什么scaled?

可参考transformer中的attention为什么scaled?

Multi-Head Attention

在这里插入图片描述
 head  i = Attention ⁡ ( Q W i Q , K W i K , V W i V ) \text { head }_{\mathrm{i}}=\operatorname{Attention}\left(Q W_{i}^{Q}, K W_{i}^{K}, V W_{i}^{V}\right)  head i=Attention(QWiQ,KWiK,VWiV)

MultiHead ⁡ ( Q , K , V ) =  Concat(head  1 , … ,  head  h ) W O \left.\operatorname{MultiHead}(Q, K, V)=\text { Concat(head }_{1}, \ldots, \text { head }_{\mathrm{h}}\right) W^{O} MultiHead(Q,K,V)= Concat(head 1,, head h)WO

Multi-Head Attention相当于多个不同Scaled Dot-Product Attention的集成,以8为例子,Multi-Head Attention步骤如下:

  1. 将数据 X X X分别输入到8个不同的Scaled Dot-Product Attention中,得到8个加权后的特征矩阵 Z i , i ∈ { 1 , 2 , … , 8 } Z_{i}, i \in\{1,2, \ldots, 8\} Zi,i{1,2,,8}

  2. 将8个 Z Z Z按列拼成一个大的特征矩阵

  3. 特征矩阵经过一层全连接得到输出 Z Z Z

可以类比CNN中同时使用多个卷积核的作用,多头的注意力有助于网络捕捉到更丰富的信息,每个head关注的点可能不一样,可以处理不同的任务

Positional Encoding

transformer内部没有类似RNN的循环结构,没有捕捉顺序序列的能力,无论句子结构怎么打乱,transformer都会得到类似的结果

为了解决这个问题,在编码词向量时会额外引入了位置编码向量

将每个位置编号,然后每个编号对应一个向量,通过结合位置向量和词向量,就给每个词都引入了一定的位置信息,这样 Attention 就可以分辨出不同位置的词了

在这里插入图片描述

  • 将向量的512维度切分为奇数行和偶数行
  • 偶数行采用sin函数编码,奇数行采用cos函数编码
  • 然后按照原始行号拼接

由于有
sin ⁡ ( a + β ) = sin ⁡ α cos ⁡ β + cos ⁡ a sin ⁡ β cos ⁡ ( α + β ) = cos ⁡ a cos ⁡ β − sin ⁡ α sin ⁡ β \sin (a+\beta)=\sin \alpha \cos \beta+\cos a \sin \beta \\ \cos (\alpha+\beta)=\cos a \cos \beta-\sin \alpha \sin \beta sin(a+β)=sinαcosβ+cosasinβcos(α+β)=cosacosβsinαsinβ
所有的 P E p o s + k PE_{pos+k} PEpos+k可以用 P E p o s PE_{pos} PEpos线性表出,表达了相对位置信息

同样的也可以训练得到位置编码向量,但是试验结果表明相差不大,因此论文选择了直接定义,这样直接计算而不需要训练,减少了训练参数,同时允许模型将位置编码向量扩展到超过了训练集中最长序列长度的位置编码

Feed-Forward Networds

在每个子层中,Multi-Head Attention层都接了一个FFN层,先线性变换,然后ReLU非线性,再线性变换
F F N ( x ) = max ⁡ ( 0 , x W 1 + b 1 ) W 2 + b 2 F F N(x)=\max \left(0, x W_{1}+b_{1}\right) W_{2}+b_{2} FFN(x)=max(0,xW1+b1)W2+b2
作用将Attention结果映射到一个更大维度的特征空间

在抛弃了 LSTM 结构后,FFN 中的 ReLU成为了一个主要的能提供非线性变换的单元

Layer Norm

主要的几种归一化方法

  • Batch Normalization

  • Layer Normalization

  • Instance Normalization

  • Group Normalization

在这里插入图片描述
将输入的图像shape记为[N, C, H, W],这几个方法主要的区别

BatchNorm是在batch上,对NHW做归一化,对小batchsize效果不好
LayerNorm在通道方向上,对CHW归一化,主要对RNN作用明显
InstanceNorm在图像像素上,对HW做归一化,用在风格化迁移
GroupNorm将channel分组,然后再做归一化

Transformer为什么选用Layer Normalization呢?

看了知乎上一些关于使用BN效果不好的讨论

比较同意是因为NLP数据和CV数据特性不同带来的影响,数据的相关性表现在哪个维度,决定了采用何种信息抽取方式

BN是对不同样本的同一特征做操作而LN是对单个样本的不同特征做操作

在NLP中不同batch样本的信息关联性不大,而且由于不同的句子长度不同,强行归一化会损失不同样本间的差异信息,所以就没在batch维度进行归一化,而是选择LN,只考虑的句子内部维度的归一化。

参考

  • 3W字长文带你轻松入门视觉transformer - 知乎

  • 一文读懂「Attention is All You Need」| 附代码实现

  • 深度学习-图解Transformer (变形金刚) - 知乎

  • 自然语言处理中的自注意力机制(Self-Attention Mechanism)_Paper weekly-CSDN博客

  • 目前主流的attention方法都有哪些? - 知乎

  • transformer 位置编码

  • transformer 多头的好处

  • transformer 为什么使用 layer normalization,而不是其他的归一化方法

  • 计算机视觉"新"范式: Transforme

  • Transformer课程——李宏毅

  • 如何理解Transformer论文中的positional encoding,和三角函数有什么关系?

  • BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm总结

热门文章

暂无图片
编程学习 ·

Java输出数组的内容

Java输出数组的内容_一万个小时-CSDN博客_java打印数组内容1. 输出内容最常见的方式// List<String>类型的列表List<String> list new ArrayList<String>();list.add("First");list.add("Second");list.add("Third");list.ad…
暂无图片
编程学习 ·

母螳螂的“魅惑之术”

在它们对大蝗虫发起进攻的时候&#xff0c;我认认真真地观察了一次&#xff0c;因为它们突然像触电一样浑身痉挛起来&#xff0c;警觉地面对限前这个大家伙&#xff0c;然后放下自己优雅的身段和祈祷的双手&#xff0c;摆出了一个可怕的姿势。我被眼前的一幕吓到了&#xff0c;…
暂无图片
编程学习 ·

疯狂填词 mad_libs 第9章9.9.2

#win7 python3.7.0 import os,reos.chdir(d:\documents\program_language) file1open(.\疯狂填词_d9z9d2_r.txt) file2open(.\疯狂填词_d9z9d2_w.txt,w) words[ADJECTIVE,NOUN,VERB,NOUN] str1file1.read()#方法1 for word in words :word_replaceinput(fEnter a {word} :)str1…
暂无图片
编程学习 ·

HBASE 高可用

为了保证HBASE是高可用的,所依赖的HDFS和zookeeper也要是高可用的. 通过参数hbase.rootdir指定了连接到Hadoop的地址,mycluster表示为Hadoop的集群. HBASE本身的高可用很简单,只要在一个健康的集群其他节点通过命令 hbase-daemon.sh start master启动一个Hmaster进程,这个Hmast…
暂无图片
编程学习 ·

js事件操作语法

一、事件的绑定语法 语法形式1 事件监听 标签对象.addEventListener(click,function(){}); 语法形式2 on语法绑定 标签对象.onclick function(){} on语法是通过 等于赋值绑定的事件处理函数 , 等于赋值本质上执行的是覆盖赋值,后赋值的数据会覆盖之前存储的数据,也就是on…
暂无图片
编程学习 ·

Photoshop插件--晕影动态--选区--脚本开发--PS插件

文章目录1.插件界面2.关键代码2.1 选区2.2 动态晕影3.作者寄语PS是一款栅格图像编辑软件&#xff0c;具有许多强大的功能&#xff0c;本文演示如何通过脚本实现晕影动态和选区相关功能&#xff0c;展示从互联网收集而来的一个小插件&#xff0c;供大家学习交流&#xff0c;请勿…
暂无图片
编程学习 ·

vs LNK1104 无法打开文件“xxx.obj”

写在前面&#xff1a; 向大家推荐两本新书&#xff0c;《深度学习计算机视觉实战》和《学习OpenCV4&#xff1a;基于Python的算法实战》。 《深度学习计算机视觉实战》讲了计算机视觉理论基础&#xff0c;讲了案例项目&#xff0c;讲了模型部署&#xff0c;这些项目学会之后可以…
暂无图片
编程学习 ·

工业元宇宙的定义与实施路线图

工业元宇宙的定义与实施路线图 李正海 1 工业元宇宙 给大家做一个关于工业元宇宙的定义。对于工业&#xff0c;从设计的角度来讲&#xff0c;现在的设计人员已经做到了普遍的三维设计&#xff0c;但是进入元宇宙时代&#xff0c;就不仅仅只是三维设计了&#xff0c;我们的目…
暂无图片
编程学习 ·

【leectode 2022.1.15】完成一半题目

有 N 位扣友参加了微软与力扣举办了「以扣会友」线下活动。主办方提供了 2*N 道题目&#xff0c;整型数组 questions 中每个数字对应了每道题目所涉及的知识点类型。 若每位扣友选择不同的一题&#xff0c;请返回被选的 N 道题目至少包含多少种知识点类型。 示例 1&#xff1a…
暂无图片
编程学习 ·

js 面试题总结

一、js原型与原型链 1. prototype 每个函数都有一个prototype属性&#xff0c;被称为显示原型 2._ _proto_ _ 每个实例对象都会有_ _proto_ _属性,其被称为隐式原型 每一个实例对象的隐式原型_ _proto_ _属性指向自身构造函数的显式原型prototype 3. constructor 每个prot…
暂无图片
编程学习 ·

java练习代码

打印自定义行数的空心菱形练习代码如下 import java.util.Scanner; public class daYinLengXing{public static void main(String[] args) {System.out.println("请输入行数");Scanner myScanner new Scanner(System.in);int g myScanner.nextInt();int num g%2;//…
暂无图片
编程学习 ·

RocketMQ-什么是死信队列?怎么解决

目录 什么是死信队列 死信队列的特征 死信消息的处理 什么是死信队列 当一条消息初次消费失败&#xff0c;消息队列会自动进行消费重试&#xff1b;达到最大重试次数后&#xff0c;若消费依然失败&#xff0c;则表明消费者在正常情况下无法正确地消费该消息&#xff0c;此时…
暂无图片
编程学习 ·

项目 cg day04

第4章 lua、Canal实现广告缓存 学习目标 Lua介绍 Lua语法 输出、变量定义、数据类型、流程控制(if..)、循环操作、函数、表(数组)、模块OpenResty介绍(理解配置) 封装了Nginx&#xff0c;并且提供了Lua扩展&#xff0c;大大提升了Nginx对并发处理的能&#xff0c;10K-1000K Lu…
暂无图片
编程学习 ·

输出三角形

#include <stdio.h> int main() { int i,j; for(i0;i<5;i) { for(j0;j<i;j) { printf("*"); } printf("\n"); } }
暂无图片
编程学习 ·

stm32的BOOTLOADER学习1

序言 最近计划学习stm32的BOOTLOADER学习,把学习过程记录下来 因为现在网上STM32C8T6还是比较贵的,根据我的需求flash空间小一些也可以,所以我决定使用stm32c6t6.这个芯片的空间是32kb的。 #熟悉芯片内部的空间地址 1、flash ROM&#xff1a; 大小32KB&#xff0c;范围&#xf…
暂无图片
编程学习 ·

通过awk和shell来限制IP多次访问之学不会你打死我

学不会你打死我 今天我们用shell脚本&#xff0c;awk工具来分析日志来判断是否存在扫描器来进行破解网站密码——限制访问次数过多的IP地址&#xff0c;通过Iptables来进行限制。代码在末尾 首先我们要先查看日志的格式&#xff0c;分析出我们需要筛选的内容&#xff0c;日志…
暂无图片
编程学习 ·

Python - 如何像程序员一样思考

在为计算机编写程序之前&#xff0c;您必须学会如何像程序员一样思考。学习像程序员一样思考对任何学生都很有价值。以下步骤可帮助任何人学习编码并了解计算机科学的价值——即使他们不打算成为计算机科学家。 顾名思义&#xff0c;Python经常被想要学习编程的人用作第一语言…
暂无图片
编程学习 ·

蓝桥杯python-数字三角形

问题描述 虽然我前后用了三种做法&#xff0c;但是我发现只有“优化思路_1”可以通过蓝桥杯官网中的测评&#xff0c;但是如果用c/c的话&#xff0c;每个都通得过&#xff0c;足以可见python的效率之低&#xff08;但耐不住人家好用啊&#xff08;哭笑&#xff09;&#xff09…