1. 首页
  2. 数据库
  3. 其它
  4. Pytorch 深度学习 Day03 —批量归一化与残差网格

Pytorch 深度学习 Day03 —批量归一化与残差网格

上传者: 2021-01-15 05:45:16上传 PDF文件 288.47KB 热度 22次
批量归一化 批量归一化的提出正是为了应对深度模型训练的挑战。在模型训练时,批量归一化利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。批量归一化和下一节将要介绍的残差网络为训练和设计深度模型提供了两类重要思路。 批量归一化曾 对全连接层和卷积层做批量归一化的方法稍有不同。下面我们将分别介绍这两种情况下的批量归一化。 对全连接层做批量归一化 我们先考虑如何对全连接层做批量归一化。通常,我们将批量归一化层置于全连接层中的仿射变换和激活函数之间。设全连接层的输入为 u ,权重参数和偏差参数分别为 W 和 b ,激活函数为 φ 。设批量归一化的运算符
用户评论