3

把大核卷积拆成三步,清华胡事民团队新视觉Backbone刷榜了,集CNN与ViT优点于一身

 2 years ago
source link: https://www.qbitai.com/2022/02/32866.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

把大核卷积拆成三步,清华胡事民团队新视觉Backbone刷榜了,集CNN与ViT优点于一身

head.jpg梦晨 2022-02-23 14:05:51 来源:量子位

超越SwinTransformer与ConvNeXT

梦晨 发自 凹非寺
量子位 | 公众号 QbitAI

在视觉任务上,CNN、ViT各有各的优势和劣势。

于是,以经典Backbone为基础、细节上相互借鉴,成了最近一个热门研究方向。

前有微软SwinTransformer引入CNN的滑动窗口等特性,刷榜下游任务并获马尔奖。

后有Meta AI的ConvNeXT用ViT上的大量技巧魔改ResNet后实现性能反超。

现在一种全新Backbone——VAN(Visiual Attention Network, 视觉注意力网络)再次引起学界关注。

因为新模型再一次刷榜三大视觉任务,把上面那两位又都给比下去了。

VAN号称同时吸收了CNN和ViT的优势且简单高效,精度更高的同时参数量和计算量还更小。

abc55e06ef7a4a2e93fbc140eef42762~tplv-tt-shrink:640:0.image

VAN来自清华计图胡事民团队,他们提出一个标准大核卷积可以拆解成三部分

深度卷积(DW-Conv)、深度扩张卷积(DW-D-Conv)和1 × 1卷积(1 × 1 Conv)。

8ddcc24114564542ab862a5837b635c8~tplv-tt-shrink:640:0.image

更关键的是,再加上一步element-wise相乘可以获得类似注意力的效果,团队把新的卷积模块命名为大核注意力LKA(Large Kernel Attention)

f36f9fa8ab6b4d3dbf57ef9cb3abdd0f~tplv-tt-shrink:640:0.image

论文最后还提到,现在的VAN只是一个直觉的原始版本、没有仔细打磨,也就是说后续还有很大提升潜力。

(代码已开源,地址在文末)

拆解大核卷积能算注意力

注意力机制,可以理解为一种自适应选择过程,能根据输入辨别出关键特征并自动忽略噪声。

关键步骤是学习输入数据的长距离依赖,生成注意力图

有两种常用方法来生成注意图。

第一种是从NLP来的自注意力机制,但用在视觉上还有一些不足,比如把图像转换为一维序列会忽略其二维结构。

第二种是视觉上的大核卷积方法,但计算开销又太大。

为克服上面的问题,团队提出的LKA方法把大核卷积拆解成三部分。

设扩张间隔为d,一个K x K的卷积可以拆解成K/d x K/d的深度扩张卷积,一个(2d − 1) × (2d − 1)的深度卷积核一个1 x 1的point-wise卷积。

8425c374aaaa477d8c0c17fb501bd845~tplv-tt-shrink:640:0.image

△c为通道(channel)

这样做,在捕捉到长距离依赖的同时节省了计算开销,进一步可以生成注意力图。

2b7ce724390741c3ab597264aceb5765~tplv-tt-shrink:640:0.image

LKA方法不仅综合了卷积和自注意力的优势,还额外获得了通道适应性。

f1c6e65994284d609ecba4779d11adcc~tplv-tt-shrink:640:0.image

在CNN里,LKA方法与MobileNet的两部分拆解法类似,增加的深度扩张卷积可以捕获长距离依赖。

与ViT相比,解决了自注意力的二次复杂度对高分辨率图像计算代价太大的问题,

MLP架构中的gMLP也引入了注意力机制,但只能处理固定分辨率的图像,且只关注了全局特征,忽略了图像的局部结构。

从理论上来说,LKA方法综合了各方优势,同时克服了上述缺点。

那么,实际效果如何?

新Backbone刷榜三大任务

根据LKA方法设计的新Backbone网络VAN,延续了经典的四阶段设计,具体配置如下。

66fcb1ad31b74c0389393ac2b069bc39~tplv-tt-shrink:640:0.image

每个阶段的结构如图所示,其中下采样率由步长控制,CFF代表卷积前馈网络( convolutional feed-forward network)

f95a533b26694d6589ec0161dbc7d85d~tplv-tt-shrink:640:0.image

假输入和输出拥有相等的宽高和通道数,可以算出计算复杂性。

9cc80bc015e549e598f2cd478744ab8f~tplv-tt-shrink:640:0.image

其中当卷积核大小(K)为21时,扩张间隔(d)取3可以让参数量最小,便以此为默认配置。

团队认为按此配置对于全局特征和局部特征的提取效果都比较理想。

最终,在ImageNet上不同规模的VAN精度都超过了各类CNN、ViT和MLP。

93f1d1f3da3d47e7aa063a53bfac8d74~tplv-tt-shrink:640:0.image

在COCO 2017目标检测任务上,以VAN为Backbone应用多种检测方法也都领先。

487e66638bc14a4ba2186bbfe6b4721d~tplv-tt-shrink:640:0.image

ADE20K语意分割任务上同样如此。

0efc2d65edb0446792b670d4c6f8d437~tplv-tt-shrink:640:0.image

而且正如前文所述,VAN未经仔细打磨就已刷榜三大任务,后续还有提升空间。

对于今后的改进方向,团队表示可能会尝试更大的卷积核,引入来自Res2Net的多尺度结构,或者Inception中的多分支结构

另外用VAN做图像自监督学习和迁移学习,甚至能否做NLP都有待后续探索。

这篇论文来自清华大学计算机系胡事民团队。

胡事民教授是清华计图框架团队的负责人,计图框架则是首个由中国高校开源的深度学习框架。

22bf196c7d624366a26af1bfc25089f6~tplv-tt-shrink:640:0.image

一作博士生国孟昊,现就读于清华大学计算机系,也是计图团队的成员。

484996a27ef146188c373d04c8806176~tplv-tt-shrink:640:0.image

这次论文的代码已经开源,并且提供了Pytorch版和计图框架两种版本。

该团队之前有一篇视觉注意力的综述,还成了arXiv上的爆款

配套的GitHub仓库视觉注意力论文大合集Awesome-Vision-Attentions也有1.2k星。

af30cfe3d46e49b1bec2d4f2c41b3916~tplv-tt-shrink:640:0.image

最后八卦一下,莫非是团队研究遍了各种视觉注意力机制后,碰撞出这个新的思路?

也是666了。

论文地址:
https://arxiv.org/abs/2202.09741

GitHub地址:
https://github.com/Visual-Attention-Network

Awesome-Vision-Attentions
https://github.com/MenghaoGuo/Awesome-Vision-Attentions

版权所有,未经授权不得以任何形式转载及使用,违者必究。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK