1. 首页
  2. 数据库
  3. 其它
  4. Task 04 机器翻译 注意力机制 Seq2seq Transformer

Task 04 机器翻译 注意力机制 Seq2seq Transformer

上传者: 2021-01-10 02:56:22上传 PDF文件 521.44KB 热度 23次
Task 04- 机器翻译-注意力机制-Seq2seq-Transformer 1 机器翻译(Machine Translation) 1.0 数据集形式 1.1 序列预处理 序列padding(保持序列的长度一致)–> valid length:序列未padding之前的长度 def pad(line, max_len, padding_token): if len(line) > max_len: return line[:max_len] return line + [padding_token] * (max_len - len(line)) 1.2
用户评论