1. 首页
  2. 数据库
  3. 其它
  4. pytorch_task4机器翻译及相关技术;注意力机制与Seq2seq模型

pytorch_task4机器翻译及相关技术;注意力机制与Seq2seq模型

上传者: 2021-02-01 01:29:29上传 PDF文件 179.82KB 热度 18次
机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1、数据预处理。将数据集清洗、转化为神经网络的输入minbatch 2、分词。字符串—单词组成的列表 3、建立词典。单词组成的列表—单词id组成的列表 4、Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 训练: 预测 具体结构: 注意力机制 在“编码器—解码器(seq2seq)”一节
用户评论