MLScala:我自己的scala DNN实现 源码
这是我自己的Scala梯度下降,向前和向后传播的实现。 目的是更好地了解深度学习的工作原理。 我希望它足够快,因此它不仅限于微小的事物。 这就是为什么我将线性代数库用于矩阵乘法。 nd4j可以将CPU avx2扩展以及CUDA用于矩阵乘法。 对于mnist数据集,这不是必需的(实际上在CPU上比gpu快),但是对于较大的数据集肯定会有用 提供的示例自动将mnist数据集下载到temp文件夹中,然后以10个历元和一个100单位的隐藏层对其进行训练。 它可以在50秒内达到95%的精度。 缺少很多东西(卷积层,正则化,优化器等),但是您首先需要到达目的地,然后才能到达目的地。
用户评论