Bootstrap

YOLOV8改进:在C2f模块不同位置添加GAM注意力机制,有效涨点!

 1.该文章属于YOLOV5/YOLOV7/YOLOV8改进专栏,包含大量的改进方式,主要以2023年的最新文章和2022年的文章提出改进方式。
2.提供更加详细的改进方法,如将注意力机制添加到网络的不同位置,便于做实验,也可以当做论文的创新点。
2.涨点效果:添加GAM,经过测试,有效涨点。

论文地址

目录

1.步骤一

2.步骤二

第一种添加方式:在图示位置添加

第二种添加方式:在图示位置添加

3.步骤三

4.步骤四

人们研究了多种注意机制来提高其表现各种计算机视觉任务。然而,先前的方法忽略了保留信息的意义在于渠道和空间两个方面加强跨维度互动。因此,我们提出了一种全局注意力机制,通过减少深度神经网络的注意力来提高深度神经网络的性能信息缩减,放大全局交互表征。我们引入了多层感知器的三维排列,沿边的通道注意卷积空间注意子模块。对提议的评价CIFAR-100和ImageNet-1K上图像分类任务的机制

;