Bootstrap

【YOLO11改进 - 注意力机制】Axial Attention:轴向注意力,提高计算效率和内存使用

YOLO11目标检测创新改进与实战案例专栏

文章目录: YOLO11创新改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例

专栏链接: YOLO11目标检测创新改进与实战案例

YOLOv11创新改进

介绍

image-20250104144410294

摘要


我们提出了 Axial Transformers,这是一种基于自注意力机制的自回归模型,适用于图像和其他高维

;