1. 首页
  2. 数据库
  3. 其它
  4. 《动手学深度学习PyTorch版》打卡_Task4机器翻译及相关技术注意力机制与Seq2seq模型

《动手学深度学习PyTorch版》打卡_Task4机器翻译及相关技术注意力机制与Seq2seq模型

上传者: 2021-01-31 23:54:00上传 PDF文件 300.31KB 热度 26次
最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def __init__(self, **kwargs): super(Encoder,
下载地址
用户评论