吴恩达深度学习第一课–第四周多层神经网络实现
文章目录声明前言引入相关依赖包初始化参数前向传播函数线性部分linear线性激活部分linear–>avtivation计算成本反向传播线性部分linear backward线性激活部分linear–>activation backward更新参数整合两层神经网络模型L层神经网络分析 声明 本文参考何宽、念师 前言 本次教程,将构建两个神经网络,一个是具有两个隐藏层的神经网络,一个是多隐藏层的神经网络。 一个神经网络的计算过程如下: 初始化网络参数 前向传播 计算一层的中线性求和的 部分 计算激活函数的部分(ReLU使用L-1次,sigmoid使用1次) 结合线性求和与激活函数 计算误差 反向
用户评论