5

序列到序列 (Seq2Seq) 和注意力机制 (Attention Machanism)

 2 years ago
source link: https://leovan.me/cn/2018/10/seq2seq-and-attention-machanism/
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

序列到序列 (Seq2Seq) 和注意力机制 (Attention Machanism)

范叶亮 / 2018-10-12

分类: 深度学习, 表示学习, 自然语言处理 / 标签: 序列, seq2seq, Sequence to Sequence, Encoder, Decoder, Beam Search, 注意力机制, Attention Mechanism, 自注意力, Self-attention, Intra-attention / 字数: 7952


Encoder-Decoder & Seq2Seq

Encoder-Decoder 是一种包含两个神经网络的模型,两个网络分别扮演编码器和解码器的角色。Cho 等人 1 提出了一个基于 RNN 的 Encoder-Decoder 神经网络用于机器翻译。网络结构如下图所示:

整个模型包含编码器 (Encoder) 和解码器 (Decoder) 两部分:Encoder 将一个可变长度的序列转换成为一个固定长度的向量表示,Decoder 再将这个固定长度的向量表示转换为一个可变长度的序列。这使得模型可以处理从一个可变长度序列到另一个可变长度序例的转换,即学习到对应的条件概率 p(y1,…,yT′|x1,…,xT),其中 T 和 T′ 可以为不同的值,也就是说输入和输出的序列的长度不一定相同。

在模型中,Encoder 为一个 RNN,逐次读入输入序列 x 中的每个元素,其中 RNN 隐状态的更新方式如下:

(1)h⟨t⟩=f(h⟨t−1⟩,xt)

在读入序列的最后一个元素后 (通常为一个结束标记),RNN 的隐状态则为整个输入序列的概括信息 c。Decoder 为另一个 RNN,用于根据隐状态 h⟨t⟩′ 预测下一个元素 yt,从而生成整个输出序列。不同于 Encoder 中的 RNN,Decoder 中 RNN 的隐状态 h⟨t⟩′ 除了依赖上一个隐含层的状态和之前的输出外,还依赖整个输入序列的概括信息 c,即:

(2)h⟨t⟩′=f(h⟨t−1⟩′,yt−1,c)

类似的,下一个输出元素的条件分布为:

(3)P(yt|yt−1,yt−2,…,y1,c)=g(h⟨t⟩,yt−1,c)

RNN Encoder-Decoder 的两部分通过最大化如下的对数似然函数的联合训练进行优化:

(4)maxθ1N∑n=1Nlog⁡pθ(yn|xn)

其中,θ 为模型的参数,xn 和 yn 分别为输入和输出序列的成对样本。当模型训练完毕后,我们可以利用模型根据给定的输入序列生成相应的输出序列,或是根据给定的输入和输出序列对计算概率得分 pθ(y|x)。同时,作者还提出了一种新的 RNN 单元 GRU (Gated Recurrent Unit),有关 GRU 的更多介绍请参见 之前的博客

序列到序列 (Sequence to Sequence, Seq2Seq) 模型从名称中不难看出来是一种用于处理序列数据到序列数据转换问题 (例如:机器翻译等) 的方法。Sutskever 等人 2 提出了一种基于 Encoder-Decoder 网络结构的 Seq2Seq 模型用于机器翻译,网络结构细节同 RNN Encoder-Decoder 略有不同,如下图所示:

模型的相关细节如下:

  1. 对数据进行预处理,在每个句子的结尾添加特殊字符 <EOS>,如上图所示。首先计算 A, B, C, <EOS> 的表示,再利用该表示计算 W, X, Y, Z, <EOS> 的条件概率。
  2. 利用两个不同的 LSTM,一个用于输入序列,另一个用于输出序列。
  3. 选用一个较深的 LSTM 模型 (4 层) 提升模型效果。
  4. 对输入序列进行倒置处理,例如对于输入序列 a,b,c 和对应的输出序列 α,β,γ,LSTM 需要学习的映射关系为 c,b,a→α,β,γ。

在模型的解码阶段,模型采用简单的从左到右的 Beam Search,该方法维护一个大小为 B 的集合保存最好的结果。下图展示了 B=2 情况下 Beam Search 的具体工作方式:

其中,红色的虚线箭头表示每一步可能的搜索方向,绿色的实线箭头表示每一步概率为 Top B 的方向。例如,从 S 开始搜索:

  1. 第一步搜索的可能结果为 SA 和 SB,保留 Top 2,结果为 SA 和 SB。
  2. 第二步搜索的可能结果为 SAC,SAD,SBE 和 SBF,保留 Top 2,结果为 SAC 和 SBE。
  3. 第三步搜索的可能结果为 SACG,SACH,SBEK 和 SBEL,保留 Top 2,结果为 SACH 和 SBEK。至此,整个搜索结束。

Bahdanau 等人 3 提出了一种基于双向 RNN (Bidirectional RNN, BiRNN) 结合注意力机制 (Attention Mechanism) 的网络结构用于机器翻译。网络结构如下:

模型的编码器使用了一个双向的 RNN,前向的 RNN f→ 以从 x1 到 xT 的顺序读取输入序列并计算前向隐状态 (h→1,…,h→T),后向的 RNN f← 以从 xT 到 x1 的顺序读取输入序列并计算后向隐状态 (h←1,…,h←T)。对于一个词 xj,通过将对应的前向隐状态 h→j 和后向隐状态 h←j 进行拼接得到最终的隐状态 hj=[h→j⊤;h←j⊤]⊤。这样的操作使得隐状态 hj 既包含了前面词的信息也包含了后面词的信息。

在模型的解码器中,对于一个给定的序例 x,每一个输出的条件概率为:

(5)p(yi|y1,…,yi−1,x)=g(yi−1,si,ci)

其中,si 为 i 时刻 RNN 隐含层的状态,即:

(6)si=f(si−1,yi−1,ci)

这里需要注意的是不同于之前的 Encoder-Decoder 模型,此处每一个输出词 yi 的条件概率均依赖于一个单独的上下文向量 ci。该部分的改进即结合了注意力机制,有关注意力机制的详细内容将在下个小节中展开说明。

注意力机制 (Attention Mechanism)

Bahdanau 等人在文中 3 提出传统的 Encoder-Decoder 模型将输入序列压缩成一个固定长度的向量 c,但当输入的序例很长时,尤其是当比训练集中的语料还长时,模型的的效果会显著下降。针对这个问题,如上文所述,上下文向量 ci 依赖于 (h1,…,hT)。其中,每个 hi 都包含了整个序列的信息,同时又会更多地关注第 i 个词附近的信息。对于 ci,计算方式如下:

(7)ci=∑j=1Tαijhj

对于每个 hj 的权重 αij,计算方式如下:

(8)αij=exp⁡(eij)∑k=1Texp⁡(eik)

其中,eij=a(si−1,hj) 为一个 Alignment 模型,用于评价对于输入的位置 j 附近的信息与输出的位置 i 附近的信息的匹配程度。Alignment 模型 a 为一个用于评分的前馈神经网络,与整个模型进行联合训练,计算方式如下:

(9)a(si−1,hj)=va⊤tanh⁡(Wasi−1+Uahj)

其中,,Wa∈Rn×n,Ua∈Rn×2n,va∈Rn 为网络的参数。

Hard & Soft Attention

Xu 等人 4 在图像标题生成 (Image Caption Generation) 任务中引入了注意力机制。在文中作者提出了 Hard Attenttion 和 Soft Attention 两种不同的注意力机制。

对于 Hard Attention 而言,令 st 表示在生成第 t 个词时所关注的位置变量,st,i=1 表示当第 i 个位置用于提取视觉特征。将注意力位置视为一个中间潜变量,可以以一个参数为 {αi} 的多项式分布表示,同时将上下文向量 z^t 视为一个随机变量:

(10)p(st,i=1|sj<t,a)=αt,iz^t=∑ist,iai

因此 Hard Attention 可以依据概率值从隐状态中进行采样计算得到上下文向量,同时为了实现梯度的反向传播,需要利用蒙特卡罗采样的方法来估计梯度。

对于 Soft Attention 而言,则直接计算上下文向量 z^t 的期望,计算方式如下:

(11)Ep(st|a)[z^t]=∑i=1Lαt,iai

其余部分的计算方式同 Bahdanau 等人 3 的论文类似。Soft Attention 模型可以利用标准的反向传播算法进行求解,直接嵌入到整个模型中一同训练,相对更加简单。

下图展示了一些图片标题生成结果的可视化示例,其中图片内 白色 为关注的区域,画线的文本 即为生成的标题中对应的词。

Global & Local Attention

Luong 等人 5 提出了 Global Attention 和 Local Attention 两种不同的注意力机制用于机器翻译。Global Attention 的思想是在计算上下文向量 ct 时将编码器的所有隐状态均考虑在内。对于对齐向量 at,通过比较当前目标的隐状态 ht 与每一个输入的隐状态 h¯s 得到,即:

(12)at=align(ht,h¯s)=exp⁡(score(ht,h¯s))∑s′exp⁡(score(ht,h¯s′))

其中 score 为一个基于内容 (content-based) 的函数,可选的考虑如下三种形式:

(13)score(ht,h¯s)={ht⊤h¯sdotht⊤Wah¯sgeneralWa[ht;h¯s]concat

我们利用一个基于位置 (location-based) 的函数构建注意力模型,其中对齐分数通过目标的隐状态计算得到:

(14)at=softmax(Waht)

Global Attention 模型的网络结构如下所示:

Global Attention 的一个问题在于任意一个输出都需要考虑输入端的所有隐状态,这对于很长的文本 (例如:一个段落或一篇文章) 计算量太大。Local Attention 为了解决这个问题,首先在 t 时刻对于每个目标词生成一个对齐位置 pt,其次上下文向量 ct 则由以 pt 为中心前后各 D 大小的窗口 [pt−D,pt+D] 内的输入的隐状态计算得到。不同于 Global Attention,Local Attention 的对齐向量 at∈R2D+1 为固定维度。

一个比较简单的做法是令 pt=t,也就是假设输入和输出序列是差不多是单调对齐的,我们称这种做法为 Monotonic Alignment (local-m)。另一种做法是预测 pt,即:

(15)pt=S⋅sigmoid(vp⊤tanh⁡(Wpht))

其中,Wp 和 ht 为预测位置模型的参数,S 为输入句子的长度。我们称这种做法为 Predictive Alignment (local-p)。作为 sigmoid 函数的结果,pt∈[0,S],则通过一个以 pt 为中心的高斯分布定义对齐权重:

(16)at(s)=align(ht,h¯s)exp⁡(−(s−pt)22σ2)

其中,根据经验设置 σ=D2,s 为在窗口大小内的一个整数。

Local Attention 模型的网络结构如下所示:

Self Attention

Vaswani 等人 6 提出了一种新的网络结构,称之为 Transformer,其中采用了自注意力 (Self-attention) 机制。自注意力是一种将同一个序列的不同位置进行自我关联从而计算一个句子表示的机制。Transformer 利用堆叠的 Self Attention 和全链接网络构建编码器 (下图左) 和解码器 (下图右),整个网络架构如下图所示:

编码器和解码器

编码器 是由 N=6 个相同的网络层构成,每层中包含两个子层。第一层为一个 Multi-Head Self-Attention 层,第二层为一个 Position-Wise 全链接的前馈神经网络。每一层再应用一个残差连接 (Residual Connection) 7 和一个层标准化 (Layer Normalization) 8。则每一层的输出为 LayerNorm(x+Sublayer(x)),其中 Sublayer(x) 为子层本身的函数实现。为了实现残差连接,模型中所有的子层包括 Embedding 层的输出维度均为 dmodel=512。

解码器 也是由 N=6 个相同的网络层构成,但每层中包含三个子层,增加的第三层用于处理编码器的输出。同编码器一样,每一层应用一个残差连接和一个层标准化。除此之外,解码器对 Self-Attention 层进行了修改,确保对于位置 i 的预测仅依赖于位置在 i 之前的输出。

Scaled Dot-Product & Multi-Head Attention

一个 Attention 函数可以理解为从一个序列 (Query) 和一个键值对集合 (Key-Value Pairs Set) 到一个输出的映射。文中提出了一种名为 Scaled Dot-Product Attention (如下图所示),其中输入包括 queries,维度为 dk 的 keys 和维度为 dv 的 values。通过计算 queries 和所有 keys 的点积,除以 dk,再应用一个 softmax 函数获取 values 的权重。

实际中,我们会同时计算一个 Queries 集合中的 Attention,并将其整合成一个矩阵 Q。Keys 和 Values 也相应的整合成矩阵 K 和 V,则有:

(17)Attention(Q,K,V)=softmax(QK⊤dk)V

其中,Q∈Rn×dk,Q 中的每一行为一个 query,K∈Rn×dk,V∈Rn×dv。1dk 为一个归一化因子,避免点积的值过大导致 softmax 之后的梯度过小。

Multi-Head Attention 的做法并不直接对原始的 keys,values 和 queries 应用注意力函数,而是学习一个三者各自的映射再应用 Atteneion,同时将这个过程重复 h 次。Multi-Head Attention 的网路结构如下图所示:

Multi-Head Attention 的计算过程如下所示:

(18)MultiHead(Q,K,V)=Concat(head1,…,headh)WOwhere headi=Attention(QWiQ,KWiK,VWiV)

其中,WiQ∈Rdmodel×dk,WiK∈Rdmodel×dk,WiV∈Rdmodel×dv,WiO∈Rhdv×dmodel, 为映射的参数,h=8 为重复的次数,则有 dk=dv=dmodel/h=64。

整个 Transformer 模型在三处使用了 Multi-Head Attention,分别是:

  1. Encoder-Decoder Attention Layers,其中 queries 来自于之前的 Decoder 层,keys 和 values 来自于 Encoder 的输出,该部分同其他 Seq2Seq 模型的 Attention 机制类似。
  2. Encoder Self-Attention Layers,其中 queries,keys 和 values 均来自之前的 Encoder 层的输出,同时 Encoder 层中的每个位置都能够从之前层的所有位置获取到信息。
  3. Decoder Self-Attention Layers,其中 queries,keys 和 values 均来自之前的 Decoder 层的输出,但 Decoder 层中的每个位置仅可以从之前网络层的包含当前位置之前的位置获取信息。

Position-wise Feed-Forward Networks

在 Encoder 和 Decoder 中的每一层均包含一个全链接的前馈神经网络,其使用两层线性变换和一个 ReLU 激活函数实现:

(19)FFN(x)=max(0,xW1+b1)W2+b2

全链接层的输入和输出的维度 dmodel=512,内层的维度 dff=2048。

Positional Encoding

Transformer 模型由于未使用任何循环和卷积组件,因此为了利用序列的位置信息则在模型的 Embedding 输入中添加了 Position Encoding。Position Encoding 的维度同 Embedding 的维度相同,从而可以与 Embedding 进行加和,文中使用了如下两种形式:

(20)PE(pos,2i)=sin⁡(pos/100002i/dmodel)PE(pos,2i+1)=cos⁡(pos/100002i/dmodel)

其中,pos 为位置,i 为对应的维度,选用这种表示形式的原因是对于一个固定的偏移 k,PEpos+k 都可以利用 PEpos 线性表示。这是因为对于正弦和余弦函数有:

(21)sin⁡(α+β)=sin⁡αcos⁡β+cos⁡αsin⁡βcos⁡(α+β)=cos⁡αsin⁡β−sin⁡αsin⁡β

Why Self-Attention

相比于循环和卷积层,Transformer 模型利用 Self-Attention 层用于一个序列 (x1,…,xn) 到另一个等长序例 (z1,…,zn) 的映射,其中 xi,zi∈Rd。Self-Attention 与循环和卷积的对比如下表所示:

层类型 每层的复杂度 序列操作数 长距离依赖路径长度

Self-Attention O(n2⋅d) O(1) O(1)

Recurrent O(n⋅d2) O(n) O(n)

Convolutional O(k⋅n⋅d2) O(1) O(logk⁡(n))

Self-Attention (restricted) O(r⋅n⋅d) O(1) O(n/r)

  1. 对于每层的复杂度,当序例的长度 n 比表示的维度 d 小时,Self-Attention 要比循环结构计算复杂度小。为了改进在长序列上 Self-Attention 的计算性能,Self-Attention 可以被限制成仅考虑与输出位置对应的输入序列位置附近 r 窗口大小内的信息。
  2. Recurrent 层的最小序列操作数为 O(n),其他情况为 O(1),这使得 Recurrent 的并行能力较差,即上表中的 Self-Attention (restricted)。
  3. 学习到长距离依赖是很多序列任务的关键,影响该能力的一个重要因素就是前向和后向信号穿越整个网络的路径长度,这个路径长度越短,越容易学习到长距离依赖。

Attention Visualizations

第一张图展示了 Self-Attention 学到的句子内部的一个长距离依赖 “making … more diffcult”,图中不同的颜色表示不同 Head 的 Attention,颜色越深表示 Attention 的值越大。

第二张图展示了 Self-Attention 学到的一个指代消解关系 (Anaphora Resolution),its 指代的为上文中的 law。下图 (上) 为 Head 5 的所有 Attention,下图 (下) 为 Head 5 和 6 关于词 its 的 Attention,不难看出模型学习到了 its 和 law 之间的依赖关系 (指代消解关系)。

Hierarchical Attention

Yang 等人 9 提出了一种层级的注意力 (Hierarchical Attention) 网络用于文档分类。Hierarchical Attention 共包含 4 层:一个词编码器 (Word Encoder),一个词级别的注意力层 (Word Attention),一个句子编码器 (Sentence Encoder) 和一个句子级别的注意力层 (Sentence Attention)。网络架构如下图所示:

Word Encoder

对于一个给定的句子 wit,t∈[0,T],通过一个 Embedding 矩阵 We 得到每个词的向量表示,再应用一个双向的 GRU,即:

(22)xit=Wewit,t∈[1,T]h→it=GRU→(xit),t∈[1,T]h←it=GRU←(xit),t∈[T,1]

最后将前向的隐状态 h→it 和后向的隐状态 h←it 进行拼接,得到 hij=[h→it,h←it] 为整个句子在词 wij 附近的汇总信息。

Word Attention

Word Attention 同一般的 Attention 机制类似,计算方式如下:

(23)uit=tanh⁡(Wwhit+bw)ait=exp⁡(uit⊤uw)∑texp⁡(uit⊤uw)si=∑taithit

Sentence Encoder

在 Word Attention 之后,我们得到了一个句子的表示 si,类似的我们利用一个双向的 GRU 编码文档中的 L 个句子:

(24)h→i=GRU→(si),i∈[1,L]h←i=GRU←(si),i∈[L,1]

最后将前向的隐状态 h→i 和后向的隐状态 h←i 进行拼接,得到 hi=[h→i,h←i] 为整个文档关于句子 si 的注意力汇总信息。

Sentence Attention

同理可得 Sentence Attention 的计算方式如下:

(25)ui=tanh⁡(Wshi+bs)ai=exp⁡(ui⊤us)∑iexp⁡(ui⊤us)v=∑iaihi

最终得到整个文档的向量表示 v。

Attention-over-Attention

Cui 等人 10 提出了 Attention-over-Attention 的模型用于阅读理解 (Reading Comprehension)。网络结构如下图所示:

对于一个给定的训练集 ⟨D,Q,A⟩,模型包含两个输入,一个文档 (Document) 和一个问题序列 (Query)。网络的工作流程如下:

  1. 先获取 Document 和 Query 的 Embedding 结果,再应用一个双向的 GRU 得到对应的隐状态 hdoc 和 hquery。
  2. 计算一个 Document 和 Query 的匹配程度矩阵 M∈R|D|×|Q|,其中第 i 行第 j 列的值计算方式如下: (26)M(i,j)=hdoc(i)⊤⋅hquery(j)
  3. 按照 的方向对矩阵 M 应用 softmax 函数,矩阵中的每一列为考虑一个 Query 中的词的 Document 级别的 Attention,因此定义 α(t)∈R|D| 为 t 时刻的 Document 级别 Attention (query-to-document attention)。计算方式如下: (27)α(t)=softmax(M(1,t),…,M(|D|,t))α=[α(1),α(2),…,α(|Q|)]
  4. 同理按照 的方向对矩阵 M 应用 softmax 函数,可以得到 β(t)∈R|Q| 为 t 时刻的 Query 级别的 Attention (document-to-query attention)。计算方式如下: (28)β(t)=softmax(M(t,1),…,M(t,|Q|))
  5. 对于 document-to-query attention,我们对结果进行平均得到: (29)β=1n∑t=1|D|β(t)
  6. 最终利用 α 和 β 的点积 s=α⊤β∈R|D| 得到 attended document-level attention (即 attention-over-attention)。

Multi-step Attention

Gehring 等人 11 提出了基于 CNN 和 Multi-step Attention 的模型用于机器翻译。网络结构如下图所示:

Position Embeddings

模型首先得到序列 x=(x1,…,xm) 的 Embedding w=(w1,…,wm),wj∈Rf。除此之外还将输入序列的位置信息映射为 p=(p1,…,pm),pj∈Rf,最终将两者进行合并得到最终的输入 e=(w1+p1,…,wm+pm)。同时在解码器部分也采用类似的操作,将其与解码器网络的输出表示合并之后再喂入解码器网络 g=(g1,…,gn) 中。

Convolutional Block Structure

编码器和解码器均由多个 Convolutional Block 构成,每个 Block 包含一个卷积计算和一个非线性计算。令 hl=(h1l,…,hnl) 表示解码器第 l 个 Block 的输出,zl=(z1l,…,zml) 表示编码器第 l 个 Block 的输出。对于一个大小 k=5 的卷积核,其结果的隐状态包含了这 5 个输入,则对于一个 6 层的堆叠结构,结果的隐状态则包含了输入中的 25 个元素。

在每一个 Convolutional Block 中,卷积核的参数为 W∈R2d×kd,bw∈R2d,其中 k 为卷积核的大小,经过卷积后的输出为 Y∈R2d。之后的非线性层采用了 Dauphin 等人 12 提出的 Gated Linear Units (GLU),对于卷积后的输出 Y=[A,B] 有:

(30)v([A,B])=A⊗σ(B)

其中,A,B∈Rd 为非线性单元的输入,⊗ 为逐元素相乘,σ(B) 为用于控制输入 A 与当前上下文相关度的门结构。

模型中还加入了残差连接,即:

(31)hil=v(Wl[hi−k/2l−1,…,hi+k/2l−1]+bwl)+hil−1

为了确保网络卷积层的输出同输入的长度相匹配,模型对输入数据的前后填补 k−1 个零值,同时为了避免解码器使用当前预测位置之后的信息,模型删除了卷积输出尾部的 k 个元素。在将 Embedding 喂给编码器网络之前,在解码器输出应用 softmax 之前以及所有解码器层计算 Attention 分数之前,建立了一个从 Embedding 维度 f 到卷积输出大小 2d 的线性映射。最终,预测下一个词的概率计算方式如下:

(32)p(yi+1|y1,…,yi,x)=softmax(WohiL+bo)∈RT

Multi-step Attention

模型的解码器网络中引入了一个分离的注意力机制,在计算 Attention 时,将解码器当前的隐状态 hil 同之前输出元素的 Embedding 进行合并:

(33)dil=Wdlhil+bdl+gi

对于解码器网络层 l 中状态 i 和输入元素 j 之间的的 Attention aijl 通过解码器汇总状态 dil 和最后一个解码器 Block u 的输出 zju 进行点积运算得到:

(34)aijl=exp⁡(dil⋅zju)∑t=1mexp⁡(dil⋅ztu)

条件输入 cil 的计算方式如下:

(35)cil=∑j=1maijl(zju+ej)

其中,ej 为输入元素的 Embedding。与传统的 Attention 不同,ej 的加入提供了一个有助于预测的具体输入元素信息。

最终将 cil 加到对应的解码器层的输出 hil。这个过程与传统的单步 Attention 不同,被称之为 Multiple Hops 13。这种方式使得模型在计算 Attention 时会考虑之前已经注意过的输入信息。

「真诚赞赏,手留余香」

  1. Cho, K., van Merrienboer, B., Gulcehre, C., Bahdanau, D., Bougares, F., Schwenk, H., & Bengio, Y. (2014). Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP) (pp. 1724–1734).
  2. Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to Sequence Learning with Neural Networks. In Z. Ghahramani, M. Welling, C. Cortes, N. D. Lawrence, & K. Q. Weinberger (Eds.), Advances in Neural Information Processing Systems 27 (pp. 3104–3112).
  3. Bahdanau, D., Cho, K., & Bengio, Y. (2014). Neural Machine Translation by Jointly Learning to Align and Translate. arXiv preprint arXiv:1409.0473
  4. Xu, K., Ba, J., Kiros, R., Cho, K., Courville, A., Salakhudinov, R., … Bengio, Y. (2015). Show, Attend and Tell: Neural Image Caption Generation with Visual Attention. In International Conference on Machine Learning (pp. 2048–2057).
  5. Luong, T., Pham, H., & Manning, C. D. (2015). Effective Approaches to Attention-based Neural Machine Translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (pp. 1412–1421).
  6. Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … Polosukhin, I. (2017). Attention is All you Need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, & R. Garnett (Eds.), Advances in Neural Information Processing Systems 30 (pp. 5998–6008).
  7. He, K., Zhang, X., Ren, S., & Sun, J. (2016). Deep Residual Learning for Image Recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) (pp. 770–778).
  8. Ba, J. L., Kiros, J. R., & Hinton, G. E. (2016). Layer Normalization. arXiv preprint arXiv:1607.06450
  9. Yang, Z., Yang, D., Dyer, C., He, X., Smola, A., & Hovy, E. (2016). Hierarchical Attention Networks for Document Classification. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (pp. 1480–1489).
  10. Cui, Y., Chen, Z., Wei, S., Wang, S., Liu, T., & Hu, G. (2017). Attention-over-Attention Neural Networks for Reading Comprehension. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 593–602).
  11. Gehring, J., Auli, M., Grangier, D., Yarats, D., & Dauphin, Y. N. (2017). Convolutional Sequence to Sequence Learning. In International Conference on Machine Learning (pp. 1243–1252).
  12. Dauphin, Y. N., Fan, A., Auli, M., & Grangier, D. (2016). Language Modeling with Gated Convolutional Networks. arXiv preprint arXiv:1612.08083
  13. Sukhbaatar, S., szlam, arthur, Weston, J., & Fergus, R. (2015). End-To-End Memory Networks. In C. Cortes, N. D. Lawrence, D. D. Lee, M. Sugiyama, & R. Garnett (Eds.), Advances in Neural Information Processing Systems 28 (pp. 2440–2448).
「真诚赞赏,手留余香」

词向量 (Word Embeddings) 利用 Flask 和 Google App Engine 部署模型服务


© 2017-2021 Leo Van
Github · ORCID · I am Mr. Black.

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK