Yolo注意力机制改进大集合
10种注意力机制代码,包括SE、CBAM、ECA、SimAM、S2-MLPv2、NAMAttention、Criss-CrossAttention、GAMAttention、Selective Kernel Attention、ShuffleAttention、A2-Net、RFB、CoTAttention、EffectiveSEModule、GatherExcite、MHSA、ParNetAttention、SpatialGroupEnhance、SequentialPolarizedSelfAttention、TripletAttention,帮助您更好地了解和应用它们。关注本文,拓展您的技术知识吧!
用户评论