1. 首页
  2. 数据库
  3. 其它
  4. UnsupervisedMT:基于短语和神经的无监督机器翻译 源码

UnsupervisedMT:基于短语和神经的无监督机器翻译 源码

上传者: 2021-04-21 11:01:56上传 ZIP文件 266KB 热度 5次
无监督机器翻译 该存储库包含以下示例中提供的无监督PBSMT和NMT模型的原始实现: (EMNLP 2018)。 注意:对于NMT方法,我们建议您看一下和相关的GitHub存储库 ,其中包含更好的模型和更有效的无监督机器翻译实现。 NMT实现支持: 三种机器翻译架构(seq2seq,biLSTM +注意,Transformer) 能够跨模型/语言共享任意数量的参数 去噪自动编码器培训 并行数据训练 反向并行数据训练 动态多线程生成反向并行数据 以及原始论文中未使用的其他功能(留作以后的工作): 培训期间任意语言 语言模型预训练/共享参数共同训练 对抗训练 PBSMT实现支持: 无监督短语表生成脚本 摩西自动化培训 依存关系 Python 3 (当前在版本0.5上进行测试) (干净并标记化文本/训练PBSMT模型) (生成并应用BPE代码) (生成嵌入) (生成跨
用户评论