博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
动手学PyTorch | (33) 通过时间反向传播
阅读量:4037 次
发布时间:2019-05-24

本文共 1377 字,大约阅读时间需要 4 分钟。

在前⾯两节中,如果不裁剪梯度,模型将⽆法正常训练。为了深刻理解这一现象,本节将介绍循环神经⽹络中梯度的计算和存储⽅法,即通过时间反向传播(back-propagation through time)。

我们在(正向传播、反向传播和计算图)中介绍了神经⽹络中梯度计算与存储的⼀般思路,并强调正向传播和反向传播相互依赖。正向传播在循环神经⽹络中⽐较直观,而通过时间反向传播其实是反向传播在循环神经网络中的具体应用。我们需要将循环神经⽹络按时间步展开,从而得到模型变量和参数之间的依赖关系,并依据链式法则应⽤反向传播计算并存储梯度。

目录


1. 定义模型

简单起见,我们考虑⼀个⽆偏差项的循环神经网络,且激活函数为恒等映射(\phi(x)=x).设时间步t的输⼊为单样本x_t \in R^{d},标签为y_t,那么隐藏状态h_t \in R^{h}的计算表达式为:

其中W_{hx} \in R^{h\times d},W_{hh}\in R^{h\times h}是隐藏层权􏰀重参数。设输出层权􏰀重参数W_{qh}\in R^{q\times h},时间步t的输出层变量o_t \in R^{q}的计算为:

设时间步t的损失为 l(o_t,y_t).时间步数为T的损失函数L定义为:

我们将L称为有关给定时间步的数据样本的⽬标函数,并在本节后续讨论中简称为目标函数。

 

2. 模型计算图

为了可视化循环神经网络中模型变量和参数在计算中的依赖关系,我们可以绘制模型计算图,如下图所示。例如,时间步3的隐藏状态h_3的计算依赖模型参数W_{hx},W_{hh}、上⼀时间步隐藏状态h_2以及当前时间步输⼊x_3.

 

3. 方法

刚刚提到,上图中的模型的参数是W_{hx},W_{hh},W_{qh}.与(正向传播、反向传播和计算图) 中的类似,训练模型通常需要模型参数的梯度\frac{\partial L}{\partial W_{hx}},\frac{\partial L}{\partial W_{hh}},\frac{\partial L}{\partial W_{qh}}.根据上图中的依赖关系,我们可以按照其中箭头所指的反方向依次计算并存储梯度。为了表述⽅便,我们依然采⽤表达链式法则的运算符prod。

⾸先,⽬标函数有关各时间步输出层变量的梯度\frac{\partial L}{\partial o_t} \in R^{q}很容易计算:

下面,我们可以计算目标函数有关模型参数W_{qh}的梯度\frac{\partial L}{\partial W_{qh}} \in R^{q\times h}.根据上图,L通过o_1,...,o_T依赖W_{qh}。依据链式法则:

其次,我们注意到隐藏状态之间也存在依赖关系。 在上图中,L只通过o_T依赖最终时间步T的隐藏状态h_T.因此,我们先计算目标函数有关最终时间步隐藏状态的梯度\frac{\partial L}{\partial h_{T}} \in R^{h}.依据链式法则,我们得到:

接下来对于时间步t < T,在上图中,L通过h_{t+1}o_t依赖h_t。依据链式法则, ⽬标函数有关时间步t < T的隐藏状态的梯度\frac{\partial L}{\partial h_{t}} \in R^{h}需要按照时间步从⼤到小依次计算:

将上面的递归公式展开,对任意时间步1 \leq t \leq T,我们可以得到目标函数有关隐藏状态梯度的通项公式:

由上式中的指数项可见,当时间步数T较大或者时间步t较⼩时,目标函数有关隐藏状态的梯度较容易出现衰减和爆炸。这也会影响其他包含\frac{\partial L}{\partial h_{t}} \in R^{h}项的梯度,例如隐藏层中模型参数的梯度\frac{\partial L}{\partial W_{hx}} \in R^{h\times d}\frac{\partial L}{\partial W_{hh}} \in R^{h\times h}。在上图中,L通过h_1,...h_T

依赖这些模型参数。 依据链式法则,我们有:

我们已在之前的内容里解释过,每次迭代中,我们在依次计算完以上各个梯度后,会将它们存储起来,从⽽避免􏰀复计算。例如,由于隐藏状态梯度\frac{\partial L}{\partial h_{t}} \in R^{h}被计算和存储,之后的模型参数梯度\frac{\partial L}{\partial W_{hx}} \in R^{h\times d}\frac{\partial L}{\partial W_{hh}} \in R^{h\times h}的计算可以直接读取\frac{\partial L}{\partial h_{t}} \in R^{h}的值,⽽⽆须􏰀重复计算它们。此外,反向传播中的梯度计算可能会依赖变量的当前值。它们正是通过正向传播计算出来的。 举例来说,参数梯度\frac{\partial L}{\partial W_{hh}} \in R^{h\times h}的计算需要依赖隐藏状态在时间步t = 0,...,T-1的当前值h_th_0是初始化得到的)。这些值是通过从输⼊层到输出层的正向传播计算并存储得到的(缓存正向传播的中间结果,可以方便反向传播的计算)。

 

4. 小结

1)通过时间反向传播是反向传播在循环神经⽹络中的具体应用。

2)当总的时间步数T较⼤或者当前时间步t较小时(网络初期),循环神经⽹络的梯度较容易出现衰减或爆炸。

 

转载地址:http://vwsdi.baihongyu.com/

你可能感兴趣的文章
iphone开发基础之objective-c学习
查看>>
iphone开发之SDK研究(待续)
查看>>
计算机网络复习要点
查看>>
Variable property attributes or Modifiers in iOS
查看>>
NSNotificationCenter 用法总结
查看>>
C primer plus 基础总结(一)
查看>>
剑指offer算法题分析与整理(一)
查看>>
剑指offer算法题分析与整理(三)
查看>>
Ubuntu 13.10使用fcitx输入法
查看>>
pidgin-lwqq 安装
查看>>
mint/ubuntu安装搜狗输入法
查看>>
C++动态申请数组和参数传递问题
查看>>
opencv学习——在MFC中读取和显示图像
查看>>
retext出现Could not parse file contents, check if you have the necessary module installed解决方案
查看>>
Matlab与CUDA C的混合编程配置出现的问题及解决方案
查看>>
python一句话之利用文件对话框获取文件路径
查看>>
PaperDownloader——文献命名6起来
查看>>
如何将PaperDownloader下载的文献存放到任意位置
查看>>
C/C++中关于动态生成一维数组和二维数组的学习
查看>>
JVM最简生存指南
查看>>