1. 首页
  2. 数据库
  3. 其它
  4. 注意转移:通过注意转移改善卷积网络(ICLR 2017) 源码

注意转移:通过注意转移改善卷积网络(ICLR 2017) 源码

上传者: 2021-02-17 19:20:16上传 ZIP文件 403.21KB 热度 2次
注意转移 PyTorch代码“更多地关注注意力:通过注意力转移提高卷积神经网络的性能” ICLR2017会议论文: ://openreview.net/forum id Sks9_ajex 到目前为止,此仓库中有什么: 用于CIFAR-10实验的基于激活的AT代码 ImageNet实验代码(ResNet-18-ResNet-34学生教师) Jupyter笔记本可视化ResNet-34的注意力图 未来: 基于研究生的AT 基于场景和CUB激活的AT代码 该代码使用PyTorch 。 请注意,原始实验是使用,到目前为止,我们已经验证了CIFAR-10实验在PyTorch中是完
用户评论