Attention层和Transformer层的区别
注意力机制(Attention)和Transformer是两个不同的概念,其中Transformer是一种基于注意力机制的神经网络结构,而不是Attention的特定实现。在神经网络结构中,Attention层是一种实现注意力机制的具体方式,而Transformer则是一种能够同时实现注意力机制和序列建模的神经网络结构。因此,一个神经网络结构中可能只包含Attention层,而没有Transformer层。
下载地址
用户评论