注意转移:通过注意转移改善卷积网络(ICLR 2017) 源码
注意转移 PyTorch代码“更多地关注注意力:通过注意力转移提高卷积神经网络的性能” ICLR2017会议论文: ://openreview.net/forum id Sks9_ajex 到目前为止,此仓库中有什么: 用于CIFAR-10实验的基于激活的AT代码 ImageNet实验代码(ResNet-18-ResNet-34学生教师) Jupyter笔记本可视化ResNet-34的注意力图 未来: 基于研究生的AT 基于场景和CUB激活的AT代码 该代码使用PyTorch 。 请注意,原始实验是使用,到目前为止,我们已经验证了CIFAR-10实验在PyTorch中是完
用户评论