PyTorch | 从NumPy到PyTorch实现神经网络
用NumPy实现两层神经网络 一个全连接ReLU神经网络,一个隐藏层,没有bias。用来从x预测y,使用Square Loss。 这一实现完全使用NumPy来计算前向神经网络,loss,和反向传播算法。 N—样本数据的大小 DinD_{in}Din—输入层向量大小 H—隐藏层向量大小 DoutD_{out}Dout—输出层向量大小 forward pass h=xw1h = xw_1h=xw1 x=>N∗Din w1=>Din∗H h=>N∗H\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \
下载地址
用户评论