admin 管理员组文章数量: 1086019
14.EPSANet: An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network(2021.3)
题目:卷积神经网络上的高效金字塔挤压注意块
论文地址:.14447
摘要:最近,研究表明,在深度卷积神经网络中嵌入注意力模块可以有效提高其性能。在这项工作中,提出了一种新的轻量级和有效的注意力方法,称为金字塔挤压注意力(PSA)模块。通过在ResNet的瓶颈块中用PSA模块替换3x3卷积,获得了一种新的表示块,称为有效金字塔挤压注意力(EPSA)。EPSA块可以很容易地作为即插即用组件添加到成熟的主干网络中,并且可以显著提高模型性能。因此,本文通过堆叠这些ResNet风格的EPSA块,开发了一种简单高效的主干架构EPSANet。相应地,所提出的EPSANet可以为各种计算机视觉任务提供更强的多尺度表示能力,包括但不限于图像分类、对象检测、实例分割等。在没有任何细节的情况下,所提出的EPSANet的性能优于大多数最先进的通道注意力方法。与SENet-50相比,在ImageNet数据集上,Top-1精度提高了1.93%,在MS-COCO数据集上使用mask RCNN进行对象检测时,获得了+2.7 box AP的更大幅度,并提高了+1.7 mask AP,例如分割。我们的源代码位于:
本文标签: 14EPSANet An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network(20213)
版权声明:本文标题:14.EPSANet: An Efficient Pyramid Squeeze Attention Block on Convolutional Neural Network(2021.3) 内容由网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:http://www.roclinux.cn/b/1693413881a220535.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论