1. 首页
  2. 数据库
  3. 其它
  4. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

上传者: 2021-01-17 04:28:12上传 PDF文件 29.07KB 热度 11次
机器翻译及相关技术: 解决RNN固定长度输出问题 翻译机制编码器和解码器机制 #编码器和解码器是分别对应输入和输出序列的两个神经网络,我们通常会在输入序列和输出序列后面附上一个特殊字符'' #(end of sequence)表示序列的终止,在测试模型时,一旦输出''就终止当前的序列输出 x=torch.tensor([[[1,1,1], [1,1,1]], [[1,1,1], [1,1,1], [1,1,1]]
下载地址
用户评论