1. 首页
  2. 数据库
  3. 其它
  4. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

上传者: 2021-01-15 14:02:57上传 PDF文件 1.01MB 热度 11次
Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder: 代码实现: num_examples = 50000 source, target = [], [
用户评论