4

- FCOS述评:全卷积单阶段目标检测

 3 years ago
source link: https://panchuang.net/2021/09/20/%e2%80%8a-%e2%80%8afcos%e8%bf%b0%e8%af%84%ef%bc%9a%e5%85%a8%e5%8d%b7%e7%a7%af%e5%8d%95%e9%98%b6%e6%ae%b5%e7%9b%ae%e6%a0%87%e6%a3%80%e6%b5%8b/
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

本文综述了阿德莱德大学的FCOS:全卷积单阶段目标检测。在本文中:

  • FCOS算法完全避免了训练过程中计算重叠等与锚盒相关的复杂计算。
  • 它还避免了与锚定框相关的所有超参数。
  • FCOS鼓励重新考虑锚箱的需求。

这是一篇被引用超过1000篇的2019年ICCV论文。(曾锡豪@Medium)Sik-Ho Tsang

1.FCOS:网络架构

1.1.符号、输入、输出

  • 设Fi(大小为H×W×C)为主干CNN第一层的特征映射,s为到该层的总步长。
  • 将输入图像的地面真实边界框定义为{Bi},其中Bi=(x(I)0,y(I)0,x(I)1,y(I)1,c(I)),其中{x(I)0,y(I)0},{x(I)1,y(I)1}分别是边界框的左上角和右下角的坐标。C(I)是对象类。
  • C是班级总数。例如:在MS Coco中C=80。
  • 具体地说,如果位置(x,y)落入任何地真盒中,则它被认为是正样本,并且该位置的类标c*是地真盒的类标。否则为负样本,c*=0(背景类)。
  • 4D实向量t*=(l*,t*,r*,b*)是该位置的回归目标,如故事顶部的第一个图所示。这里l*,t*,r*,b*是从该位置到边界框四边的距离。
  • 形式上,如果位置(x,y)与边界框Bi相关联,则该位置的训练回归目标可以表示为(Eq.(1)):
  • 我们的网络的最后一层预测分类标签的80D向量p和4D向量t=(l,t,r,b)边界框坐标。
  • C个二值分类器的训练。
  • 在骨干网络的特征图之后分别添加4个卷积层,分别用于分类和回归分支。
  • 由于回归目标始终为正,因此使用EXP(X)将任何实数映射到回归分支顶部的(0,∞)。

1.2.损失函数

  • 损失函数为(等式)。(2)):
  • 其中LCLS是RetinaNet中的焦点丢失。Lreg是欠条的遗失。NPO表示正样本的个数,本文中λ为1是LREG的平衡权重。
  • 在特征地图Fi上的所有位置上计算总和。1{c*i>0}是指示器函数,如果c*i>0,则为1,否则为0。

1.3.推理

  • 给定输入图像,图像通过网络并获得特征地图Fi上每个位置的分类分数Px,y和回归预测Tx,y。
  • 在RetinanNet之后,我们选择Px,y>0.05的位置作为正样本,并反演公式。(1)获取预测包围盒。
  • 如果一个位置落入多个边界框中,则将其视为不明确样本。我们简单地选择面积最小的包围盒作为其回归目标。
  • 与基于锚点的检测器不同,基于锚点的检测器将不同大小的锚框分配给不同的特征级别,而边界框回归的范围对于每个级别都是直接有限的。
  • 范围mi是要素高程i需要回归的最大距离。在本工作中,m2、m3、m4、m5、m6和m7分别设置为0、64、128、256、512和∞。
  • 更具体地说,我们首先计算所有特征级别上每个位置的回归目标l*、t*、r*、b*。接下来,如果位置满足MAX(l*,t*,r*,b*)>mi或max(l*,t*,r*,b*)
  • 如果一个位置,即使使用了多层预测,仍然被分配到多个地面实值盒子,则简单地选择面积最小的地面实值盒子作为其目标。
  • 在不同的特征级别之间共享头部,不仅使检测器的参数效率更高,而且提高了检测性能。
  • 由于不同的特征映射针对不同的对象大小,使用可训练标量si的exp(si×x)来自动调整特征级PI的指数函数的基数,而不是exp(X),从而提高了一点精度性能。

2.2.FCOS的中心性

  • 在FCOS中使用多级预测后,与基于锚点的检测器相比,性能仍有差距。这是由于远离对象中心的位置产生了大量低质量的预测边界框。
  • 中心度被用来解决这个问题(等式)。(3)):
  • 中心度描述了从该位置到该位置负责的对象的中心的归一化距离。
  • 中心度的范围从0到1,因此用二元交叉熵(BCE)损失来训练。将损失添加到损失函数Eq.(2)。
  • 在测试时,通过将预测的中心度与相应的分类分数相乘来计算最终分数(用于对检测到的边界框进行排序)。因此,中心度可以降低远离对象中心的边界框分数。

3.烧蚀研究

  • COCO traval35k Split(115K图像)用于训练,Minival Split(5K图像)用于验证。

3.2.中心度

  • 中心度+也可以用预测的回归向量来计算,而不需要引入额外的中心度分支。但它不能改善AP。

3.3。其他改进

  • “CTR。在注册表上“:将中心度分支移动到回归分支。
  • “CTR。抽样“:只抽样地面实况盒的中心部分作为阳性样本。
  • “GIOU”:在欠条损失中处罚外接矩形区域上的联合区域。
  • “归一化”:将等式中的回归目标归一化。(1)随着FPN水平的跨度
  • 下面的SOTA比较中没有使用这些改进。这是在论文最初的深渊翻滚之后发现的。

4.SOTA比较

4.1.MS COCO测试开发拆分

  • 在MS-COCO基准的测试开发拆分上,FCOS与其他最先进的对象检测器配合使用。
  • 使用ResNet-101-FPN时,FCOS的性能比使用相同主干ResNet-101-FPN的Retinanet高2.4%AP。
  • FCOS的性能也远远超过其他经典的两级锚定检测器,如更快的R-CNN。
  • 以ResNeXt-64x4d-101-FPN为主干,FCOS在AP中达到43.2%。它的性能大大超过了最近最先进的无锚检测器CornerNet,而且更简单。
  • 此外,经过第三节改进的FCOS在单模型和单尺度测试中获得了44.7%的AP,大大超过了以前的探测器。

4.2.区域提案网络的扩展

  • 即使没有提议的中心度分支,FCOS也已经显著改善了AR100和AR1k。
  • 通过建议的中心分支,FCOS将AR100和AR1k分别进一步提高到52.8%和60.3%,与采用FPN的RPN相比,AR100和AR1k的相对改善分别为18%和3.4%。

[2019 ICCV][FCOS]FCOS:全卷积一级目标检测FCOS: Fully Convolutional One-Stage Object Detection

2014年至2017年:…2018年:[YOLOv3][Cascade R-CNN][MegDet][StairNet][RefineDet][CornerNet][Pelee&PeleeNet]2019年:[DCNv2][重新思考ImageNet预训][GRF-DSOD&GRF-SSD][Centernet][Grid R-CNN][NAS-FPN][ASFF][Bag of Freebies][VoVNet/YOLOv3 Cascade R-CNN MegDet StairNet RefineDet CornerNet Pelee & PeleeNet DCNv2 Rethinking ImageNet Pre-training GRF-DSOD & GRF-SSD CenterNet Grid R-CNN NAS-FPN ASFF Bag of Freebies VoVNet/OSANet FCOS EfficientDet CSPNet YOLOv4 SpineNet Scaled-YOLOv4

我以前的其他论文阅读

原创文章,作者:fendouai,如若转载,请注明出处:https://panchuang.net/2021/09/20/%e2%80%8a-%e2%80%8afcos%e8%bf%b0%e8%af%84%ef%bc%9a%e5%85%a8%e5%8d%b7%e7%a7%af%e5%8d%95%e9%98%b6%e6%ae%b5%e7%9b%ae%e6%a0%87%e6%a3%80%e6%b5%8b/


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK