Task 04 机器翻译 注意力机制 Seq2seq Transformer
Task 04- 机器翻译-注意力机制-Seq2seq-Transformer 1 机器翻译(Machine Translation) 1.0 数据集形式 1.1 序列预处理 序列padding(保持序列的长度一致)–> valid length:序列未padding之前的长度 def pad(line, max_len, padding_token): if len(line) > max_len: return line[:max_len] return line + [padding_token] * (max_len - len(line)) 1.2
下载地址
用户评论