1. 首页
  2. 移动开发
  3. 其他
  4. Transformer PPT

Transformer PPT

上传者: 2020-12-03 14:18:01上传 ZIP文件 12.73MB 热度 11次
介绍了为什么要引入self-attention、self-attention的基本原理、self-attention的矩阵表示、Multi-head self-attention、 Positional Encoding、seq2seq
下载地址
用户评论