admin 管理员组

文章数量: 1086019

14.EPSANet: An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network(2021.3)

题目:卷积神经网络上的高效金字塔挤压注意块

论文地址:.14447

摘要:最近,研究表明,在深度卷积神经网络中嵌入注意力模块可以有效提高其性能。在这项工作中,提出了一种新的轻量级和有效的注意力方法,称为金字塔挤压注意力(PSA)模块。通过在ResNet的瓶颈块中用PSA模块替换3x3卷积,获得了一种新的表示块,称为有效金字塔挤压注意力(EPSA)。EPSA块可以很容易地作为即插即用组件添加到成熟的主干网络中,并且可以显著提高模型性能。因此,本文通过堆叠这些ResNet风格的EPSA块,开发了一种简单高效的主干架构EPSANet。相应地,所提出的EPSANet可以为各种计算机视觉任务提供更强的多尺度表示能力,包括但不限于图像分类、对象检测、实例分割等。在没有任何细节的情况下,所提出的EPSANet的性能优于大多数最先进的通道注意力方法。与SENet-50相比,在ImageNet数据集上,Top-1精度提高了1.93%,在MS-COCO数据集上使用mask RCNN进行对象检测时,获得了+2.7 box AP的更大幅度,并提高了+1.7 mask AP,例如分割。我们的源代码位于:

本文标签: 14EPSANet An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network(20213)