批量归一化和残差网络
1.由来: 由google2015年提出,深度神经网络训练的技巧,主要是让数据的分布变得一致,从而使得训练深层神经网络更加容易和稳定。 2.作用 BN的作用就是将这些输入值或卷积网络的张量进行类似标准化的操作,将其放缩到合适的范围,从而加快训练速度;另一方面使得每一层可以尽量面对同一特征分布的输入值,减少了变化带来的不确定性 3.操作阶段 4.操作流程 计算每一层深度的均值和方差 对每一层设置2个参数,γ和β。假设第1深度γ=2、β=3;第2深度γ=5、β=8。 使用缩放因子γ和移位因子β来执行此操作。 随着训练的进行,这些γ和β也通过反向传播学习以提高准确性。这就要求为每一层学习2个
用户评论