1. 首页
  2. 数据库
  3. 其它
  4. 【人工智能学习】【十六】Self Attention和Transformer

【人工智能学习】【十六】Self Attention和Transformer

上传者: 2021-01-17 00:34:45上传 PDF文件 1.45MB 热度 7次
Self Attention Attention机Decoder是输出元素和Encoder中的输入元素做attention,说的是翻译的结果和输入的哪些信息有关。 Self Attention则是Encoder中的信息自己对自己做attention,说的是自己这一句话内容之间的关系,比如The cat wants to cross the street,but it to tired。it指的是cat。 The cat wants to cross the street,but it to wide。it指的是street。 在做有attention的RNN时,encoder部分会输出一个at
用户评论