优化__训练方法.zip
Batchnormalization算法:通过减少内部协变量转化加速深度网络的训练Batchnormalization:Acceleratingdeepnetworktrainingbyreducinginternalcovariateshift(2015)作者S.LoffeandC.Szegedy摘要:训练深层神经网络由于在训练期间每个层的输入的分布改变而变得复杂,因为先前层的参数发生了改变。由于要求较低的学习速率和仔细的参数初始化,它减慢了训练,并且使得训练具有饱和非线性的模型变得非常困难。我们将这种现象称为内部协变量移位(internalcovariateshift),并通过归一化层输入(normalizin
下载地址
用户评论
不知道为啥一层一层地解压,最后得到的是强化学习的几篇资料