1. 首页
  2. 数据库
  3. 其它
  4. 动手学深度学习(Pytorch版)task3 5打卡

动手学深度学习(Pytorch版)task3 5打卡

上传者: 2021-02-01 17:55:42上传 PDF文件 755.06KB 热度 30次
对于task3-5的内容进行打卡 Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 模型复杂度和误差之间的关系 权重衰减的计算公式: Xavier初始化 梯度裁剪 循环神经网络中较容易出现梯度衰减或梯度爆炸,这会导致网络几乎无法训练。裁剪梯度(clip gradient)是一种应对梯度爆炸的方法。假设我们把所有模型参数的梯度拼接成一个向量 g ,并设裁剪的阈值是 θ 。裁剪后的梯度为: GRU 重置门用于捕捉时间序列里的短期依赖关系 更新门有助于捕捉时间序列里的长期依赖关系 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transf
用户评论