您好,欢迎访问三七文档
当前位置:首页 > 商业/管理/HR > 项目/工程管理 > Mask-R-CNN-中文翻译
MaskR-CNNrRossGirshickFacebookAIResearch(FAIR)Facebook的人工智能研究文摘我们提出了一个概念上简单、灵活、通用的对象实例来分割框架。我们的方法可以有效地检测图像中的对象,同时为每个人生成一个高质量的分割掩码。这个方法,称为MaskR-CNN,通过添加一个分支来预测一个对象掩码,并与现有的用于边界框识别的分支并行,扩展了FasterR-CNN。MaskR-CNN很容易训练,并且只增加了一个很小的开销,以FasterR-CNN,以5帧的速度运行。此外,MaskR-CNN很容易被其他的任务所概括,例如,允许我们在同一个框架中估计人类的姿势。我们在这三种可处理的挑战中显示了最高的结果,包括实例分割、弹盒对象检测和人的关键点检测。在没有技巧的情况下,MaskR-CNN在每项任务上都胜过所有现有的单一模型条目,包括2016年的COCO挑战奖得主。我们希望我们的简单和有效的方法可以作为一个可靠的基准,并有助于在实例级识别中简化未来的研究。代码将会提供出来。1.介绍视觉社区在短时间内迅速改善了目标检测和语义分割的结果。在很大程度上,这些进步是由强大的基线系统驱动的,例如:Fast/FasterR-CNN[12,34]和完全卷积网络(FCN)[29]框架分别用于对象检测和语义分割。这些方法在概念上是直观的,并且提供了灵活性和健壮性,以及快速的训练和推断时间。我们的目标是开发一个相对支持的框架,例如分割之类。实例分割是很有挑战性的,因为它需要正确地检测图像中的所有对象,同时还要精确地分割每个实例。因此结合了古典元素从计算机视觉任务的对象国民住宅检测,目标是分类个人对象工程和本地化。使用一个边界框,和语义分割,目标是每个像素分类为一组固定的类别没有区分对象——立场。考虑到这一点,人们可能会期望得到一个复杂的方法来获得好的结果。然而,我们展示了一个令人惊讶的简单、灵活和快速的系统可以超越先前的最先进的实例分割结果。我们的方法,称为MaskR-CNN,延展FasterR-CNN[34]通过添加一个分支预测分割Mask感兴趣的每个区域(ROI),与前存在的并行分支分类和边界框回归——锡安(图1)。Mask分支是一个小FCN应用于每一个ROI,预测像素像素的方式分割掩模。MaskR-CNN很容易实现和训练,因为它提供了FasterR-CNN框架,它为各种灵活的架构设计提供了便利。此外,掩码分支只增加了一个很小的计算开销,支持快速的系统和快速的实验。在原则上,MaskR-CNN是FasterR-CNN的一个直观的延伸,但是正确地构建掩码分支是对好的结果的关键。更重要的是,FasterR-CNN不是为像素-像素的对齐而设计的-网络输入和输出。这一点在ROIPool[18,12],实际上是对实例的实际核心操作中很明显的,对特征提取进行了粗略的空间量化。为了修正偏差,我们提出了一个简单的无量化层,叫做ROI对齐,它忠实地保留了精确的空间位置。尽管表面上看起来很小,但ROI对齐有很大的影响:它可以使掩码的准确度提高10%到50%,在更严格的本地化指标下显示出更大的收益。其次,我们发现分离蒙版和类预测至关重要:我们可以独立预测每个类的二进制掩码,不需要类之间的竞争,并且依赖于网络的ROI分类分支来预测类别。相比之下,FCNs通常执行每个像素的多类分类,对分割和分类进行分类,基于我们的实验对实例分割的效果很差。没有花哨的功能,MaskR-CNN将会超越之前所有的先进的单一模型,在COCO实例分割任务28中,包括来自2016年竞争对手的大量工程项目。作为副产品,我们的方法在COCO对象检测任务上也有优势。在消融实验中,我们对多个基本实例进行了评估,使我们能够证明其鲁棒性,并分析其核心因素的影响。我们的模型可以在GPU上以每帧大约200毫秒的速度运行,而在一台8GPU的机器上,在COCO上的训练需要一到两天的时间。我们相信,快速的列车和测试速度,以及框架的灵活性和准确性,将有利于并简化未来对实例分割的研究。最后,我们通过对COCO关键数据集[28]的人工姿势估算来展示我们的框架的通用性。通过将每个键点视为一个热的二进制掩码,用最小的修改MaskR-CNN可用于检测实例特定的姿态。在没有技巧的情况下,MaskR-CNN将会超越2016年COCO键比赛的冠军,同时以5秒的时间进行比赛。因此,MaskR-CNN可以更广泛地看作是一个灵活的实例级识别框架,可以很容易地扩展到更复杂的任务。我们将发布代码以促进未来的研究。根据常用的术语,我们使用对象检测来表示检测,通过边界框,而不是掩码,和语义分段来表示每个像素的分类而不区分实例。然而,我们注意到,实例分割既是语义的,也是检测的一种形式。图2。MaskR-CNN在COCO测试集上的结果。这些结果是基于re斯内-10119,获得一个35.7的Mask,以5fps的速度运行。在颜色上显示了Mask,并且显示了边框、类别和机密。2.相关工作R-CNN:基于区域的CNN(R-CNN)接近世贸组织的对象检测[13],是要关注一个可管理的候选对象区域[38,20],并在每个ROI上独立评估卷积网络[25,24]。R-CNN被扩展[18,12]到允许使用ROIPool在功能地图上使用ROIs,这导致了快速的速度和更高的准确性。FasterR-CNN[34]通过一个区域提议网络(RPN)学习注意力机制来推进这一流。FasterR-CNN是灵活的,并且对许多后续的改进(例如,[35,27,21]进行了改进,并且是目前领先的几个基准框架。论坛细分:受R-CNN的有效性的驱动,许多实例分割的方法都是基于片段的建议。早期的方法[13,15,16,9]采用了自下而上的方法[38,2].。深度掩模[32]和以下的工作学习[33,8]了如何提出片段的日期,然后被FastR-CNN分类。在这些方法中,分割先于识别,这是缓慢而不准确的。同样地,戴等人提出了一个复杂的多阶段级联,[10]该级联可以预测出从包装盒提议中获得的部分建议,然后是分类。相反,我们的方法是基于对Mask和类标签的并行预测,这种方法更简单、更灵活。最近,李等人[26]结合了“全卷积性实例分割”(FCIS)的“分段-posal系统”[8]和“对象检测系统”[11]。通常的想法是,预测一组位置——敏感的输出通道[8,11,26],完全是在螺旋形的。这些通道同时处理对象类、框和掩码,使系统快速。但是FCIS在重叠的实例上展示了系统的错误,并产生了虚假的边缘(图5),显示了它受到了分割实例的有趣的困难的挑战。3.MaskR-CNNMaskR-CNN在概念上很简单:FasterR-CNN有两个输出分别为每个候选对象,一个类标签和一个限定框的偏移量;为此,我们添加了第三个分支——将对象掩码。因此,MaskR-CNN是一种自然而又有目的的想法。但是额外的蒙版输出与类和框输出不同,需要提取对象的更精细的空间布局。接下来,我们将介绍MaskR-CNN的关键部分,包括像素到像素的对齐,这是Fast/FasterR-CNN的主要缺失部分。FasterR-CNN:我们首先简单回顾一下R-CNN探测器的速度更快。FasterR-CNN由两个阶段组成。第一个阶段称为区域建议书网络(RPN),它提出候选对象边界框。第二阶段,本质上是快速的R-CNN[12],从每一个候选的盒子中提取出的ROIPool,并进行分类和限定框回归。两个阶段所使用的特性可以用于更快的推理。我们将读者推荐给21岁的读者,让他们对FasterR-CNN和其他框架进行全面的比较。MaskR-CNN:MaskR-CNN采用相同的两步程序,具有相同的第一阶段(即RPN)。在第二阶段,与预测类和盒偏移量平行,MaskR-CNN也为每个ROI输出一个二进制掩码。这与最近的系统形成了鲜明的对比,在那里,古典化依赖于MaskR-CNN的预测(例如,[32,10,26])。我们的方法遵循了FastR-CNN[12]的精神,它在平行等位基因中应用了限定框的分类和回归(这在很大程度上简化了原始R-CNN[13]的多阶段管道)。正式地,在培训期间,我们在每个抽样的ROI上定义一个多任务损失,如L=Lcls+Lbox+Lmask。古典化损失Lcls和边界框损失Lbox是12个定义的。这个掩码分支为每个ROI都有一个Km2-维度输出,它为每一个K类编码K个二进制掩码。为此,我们应用了每一个像素的s型,并将Lmask定义为平均的二进制交叉熵损失。对于与地真相类k相关联的ROI,Lmask仅在k-thMask上定义(其他掩码输出不会造成损失)。我们对Lmask的定义允许网络为每个类生成类型,而不需要在类之间进行竞争;我们依赖专用的分类分支来预测用于选择输出掩码的类标签。这就分离了蒙版和类预测。这与一般的做法不同,在应用FCNs[29]到语义分段时,通常使用一个像素的软最大值和一个多的交叉熵损失。在这种情况下,各个阶层的Mask竞争;在我们的例子中,每个像素的s型和二进制的损失,他们都没有。我们通过实验证明,这种规划是很好的实例分割结果的关键。掩码表示:一个掩码可以编码输入对象的空间布局。因此,不像类标签或盒偏移,通过完全连接的(fc)层不可避免地折叠成简短的输出向量,因此,通过卷积所提供的像素到像素的对应关系,可以很自然地提取出掩码的空间结构。具体来说,我们使用FCN[29]来预测每个ROI的一个m⇥m掩码。这允许掩码分支中的每一层都保持显式的m⇥m对象空间的空间,而不将其折叠成缺乏空间维度的向量表示。与之前的方法不同,我们的完全卷积表示需要更少的参数,更准确的是通过实验来证明。这个像素到像素的行为需要我们的ROI特性,这些特性本身就是一个小的特征图,可以很好地对齐,以忠实地保存每一个像素的空间数据。这促使我们开发了下面的ROI对齐层,它在掩码预测中起着关键的作用。ROI对齐:ROIPool[12]是一个从每个ROI提取一个小功能图(例如,7⇥7)的标准操作。ROIPool首先将一个浮动数字的ROI量化到特征映射的离散的格兰拉度,然后将这个量化的ROI细分为一个被量化的空间容器,最后将每个容器所覆盖的特征值聚合起来(通常是通过最大的池)。量化是通过计算x/16的连续坐标x来实现的,其中16是一个特征图跨步,并且是舍入;同样地,当划分为垃圾箱时,就会执行量化处理(例如,7⇥7)。这些量化引入了ROI和提取的特性之间的偏差。虽然这可能不会影响分类,这对小的翻译来说是很强大的,但它对预测像素精确的Mask有很大的负面影响。为了解决这个问题,我们提出了一个ROI对齐层,它将对ROIPool进行严格的量化,将提取的特性与输入进行适当的对齐。我们提出的改变很简单:我们避免任何量化的ROI边界或垃圾箱(即:我们用x/16代替x/16)。我们使用bi线性插值[22]来计算每个ROI容器中四个常规采样点的输入特性的确切值,并汇总结果(使用最大值或平均值)。ROI对齐会带来很大的改进,就像我们在4.2中展示的那样。我们还比较了所提出的罗经机操作[10]。与ROI对齐不同的是,ROI跃迁忽略了对齐的问题[10],并在量化投资回报率上与ROIPool相似。因此,即使ROI跃迁也采用了由实验驱动的双线性重采样[22],它的表现与实验所示的ROIPool相同(在Ta-2c中有更多细节),显示了校准的关键作用。网络架构:为了演示我们的方法的通用性,我们实例化了带有多个架构的MaskR-CNN。为了清晰起见,我们区分了:(i)用于特性前的卷积骨架架构,以及(ii)网络头用于边界识别(分类和回归)和掩码预测,分别应用于每个ROI。我们使用术语网络深度特征来表示主干架构。我们评估了深度50或101层的ResNet[19]和ResNeXt网络[40]。FasterR-CNN和ResNets的最初实现从第四阶段的卷积层中提取出了一些特征[19],我们称之为C4。例如,resnet-50的主干,由resnet-50-c4表示。这是一个常用的选择[19,10,2
本文标题:Mask-R-CNN-中文翻译
链接地址:https://www.777doc.com/doc-4920693 .html