1. 首页
  2. 数据库
  3. 其它
  4. pytorch学习之注意力机制

pytorch学习之注意力机制

上传者: 2021-01-17 01:57:22上传 PDF文件 155.85KB 热度 24次
Attention 是一种通用的带权池化方法,输入由两部分构成:询问(query)和键值对(key-value pairs)。 不同的attetion layer的区别在于score函数的选择,两种常用的注意层 Dot-product Attention 和 Multilayer Perceptron Attention 点积注意力 class DotProductAttention(nn.Module): def __init__(self, dropout, **kwargs): super(DotProductAttention, self).__init_
下载地址
用户评论