图像具有 translation invariance(平移不变性)和 scale invariance(尺度不变性),这也是神经网络在图像领域应用时需要遵循的两大前提。
NMS 将同类别的检测框按得分排序,然后保留得分最高的框,同时删除与该框重叠面积大于一定比例的其它框,由此迭代。
具体为,首先选定一个 IoU(Intersection-over-Union,交并比,即两框重叠部分面积占两框并集面积的比例,用于衡量两个 bounding box 重叠度的量)阈值,例如 0.25,然后将所有 4 个窗口(bounding box)按照得分由高到低排序,然后选中得分最高的窗口,遍历计算剩余的3个窗口与该窗口的交并比(IoU),如果 IoU 大于阈值 0.25,则将窗口删除;然后再从剩余的窗口中选中一个得分最高的。重复上述过程,直至所有窗口都被处理,从而得到所有的检测框。示例代码如下:
def py_cpu_nms(dets, thresh):
= dets[:, 0], dets[:, 1], dets[:, 2], dets[:, 3], dets[:, 4]
x1, y1, x2, y2, scores = (x2 - x1 + 1) * (y2 - y1 + 1)
areas = scores.argsort()[::-1]
order
= []
keep while order.size > 0:
= order[0]
i
keep.append(i)= order[1:]
order = np.maximum(x1[i], x1[order])
xx1 = np.maximum(y1[i], y1[order])
yy1 = np.minimum(x2[i], x2[order])
xx2 = np.minimum(y2[i], y2[order])
yy2
= np.maximum(0.0, xx2 - xx1 + 1)
w = np.maximum(0.0, yy2 - yy1 + 1)
h = w * h
inter = inter / (areas[i] + areas[order] - inter)
ovr = np.where(ovr <= thresh)[0]
inds = order[inds]
order
return keep
这种方法有两个弊端,一方面IoU阈值不易确定,另一方面两个IoU过大的同类别物体的检测框会被抑制掉。
目前常用的解决方案为soft-NMS ,其思想为不直接删除所有IoU大于阈值的框,而是将以IoU为因变量的权重(paper给出了线性加权和高斯加权两种形式)作用在目标框的得分上;即目标框的IoU越大,其得分下降得就越厉害,反之同理。将soft-NMS(以线性加权为例)与NMS实现方面的差异表示如下: \[ s_i = \{^{s_i, \quad \quad \quad \quad \quad \mathrm{iou}(M,b_i) < threshold} _{0, \quad \quad \quad \quad \quad \mathrm{iou}(M,b_i) \ge threshold} , \\ s_i = \{^{s_i, \quad \quad \quad \quad \quad \mathrm{iou}(M,b_i) < threshold} _{s_i(1-\mathrm{iou}(M,b_i)), \quad \mathrm{iou}(M,b_i) \ge threshold} . \] 由此也可看出,若想改进为解决某一问题却导致了另一问题产生的原始算法,须得从算法的具体实现着手,步步分析,找到导致新问题产生的实现方面的原因。
做 ROIs Pooling,即对每个 ROI 做同等份数的分割(像素点个数不够的做插值),对每块分割做 max/avg pooling,即将映射到的 feature map 下采样(或上采样)为大小固定的 feature 。这样便无须训练不同尺度的大量分类器(因为分类器的输出层为一全连接层),而只用一个分类器便可。
分割(或插值)成的份数一般根据数据集中中等大小物体的尺度来确定,以尽量不打破 backbone 的平移不变性。如 VOC 数据集,中等大小物体尺度为 150 * 150,若检测框架的 stride 为 16,则设置 RoI-pooling 大小为 9.375 * 9.375 左右,如 Faster-R-CNN 采用的是 7 * 7 。不过这个问题已通过 R-FCN 解决了。
假设:当候选框与 GT 相差较小时,候选框内的 feature map 到两个平移量和两个尺度因子的映射是一种线性变换。该假设类似于人看到一本书的70%以上时,便能猜测出该书有多大,但若只看到一个书角便不能,当然也不期望能。
便于回归的两个trick(属于 target engineering,右上角标 * 的意味 target):
\[ t_x^* = (x^*-x_{proposal})/w_{proposal}, \\ t_y^* = (y^*-y_{proposal})/h_{proposal}, \\ t_w^* = \log (w^*/w_{proposal}), \\ t_h^* = \log (h^*/h_{proposal}). \]
回归次数越多(如AttentionNet),定位自然也会越精确,但通用框架通常都只采用一次回归的方案。
首先通过过分割的方法将图片分割成无数个小区域,然后依据相似度(颜色、纹理、尺度、交叠度等)合并可能性最高的两个区域,重复合并,直至所有区域合并成为一个区域为止,最后输出所有曾出现过的区域作为候选区域(通常约为 2000 个)。如下图所示:
迁移学习研究如何将已有模型应用到新的不同的、但是有一定关联的领域中。
领域主要由两部分组成:数据,和生成这些数据的概率分布。概率分布通常只是一个逻辑上的概念,即我们认为不同领域有不同的概率分布,却一般不给出(也难以给出)其具体形式。
任务主要由两部分组成:标签,和标签对应的函数(即输入数据输出标签的函数)。
顾名思义,FCN 即全为卷积层的神经网络,没有全连接层,或者说将全连接层以卷积层的方式实现,而非以两个矩阵乘积的方式实现(全连接层的实现方式),具体为:
这样做的优点是,通过在最后一层做 pooling(核大小为 feature map 大小)的方法,可实现让一个已设计完毕的网络可以接收任意大小的图片。
检测网络通常分为两类:top-down 和 bottom-up,本文主要介绍 top-down。
top-down 通常有两种实现方法:
- detection by classification (all patches of an image):缺点是计算量太大;
- detection by regressor (use image&loc_rough to regress loc_precious):缺点是难以解决 overlap 问题;
- 目前,大都在大的尺度用1,小的尺度用2,以达到一种 trade off。
bottom-up 方法的一篇论文:Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields
top-down 方法又可根据 pipeline 分为两类:one stage detector(由先验框直接到预测框)和 two stage detector(从先验框到预测框中间会有建议框,即特征重采样过程)。
其贡献在于 multibox 即先验框的设计:
先验框的宽高比设计(aspect ratios):{1:1, 2:1, 3:1, 1:2, 1:3}
先验框的尺度设计(scale):
\[ s_k = 0.2 + \frac{0.9 - 0.2}{m - 1} (k - 1), \quad k \epsilon [1, m] \]
\[ b.x = \frac{b_x}{featuremap_w} org_w \\ b.y = \frac{b_y}{featuremap_h} org_h \\ b.w = \frac{b_w}{featuremap_w} org_w \\ b.h = \frac{b_h}{featuremap_h} org_h \]
#### 附
通过消除预定义的锚框,FCOS避免了与锚框相关的复杂计算,例如在训练期间计算重叠等,并且显著减少了训练内存。
现主要分为两大类:Faster R-CNN 和 R-FCN 。
其改进方向一般为四个:
- 基础网络方向:提高特征提取能力,以更适用于检测任务;
- RPN(建议框生成)方向:提高AR;
- RoI pooling方向:改善检测框架机制;
- post-process方向:提高AP。
滑动窗口 + 缩放图片后再滑动窗口(等价于取的不同大小的滑动窗口)+ 分别计算是 object 的可能性,并对框内物体进行分类。属于纯粹的detection by classification。
selective search 提取候选框 + 每个候选框 resize 成统一尺寸后送入 CNN 提取特征 + SVM + bounding-box-regression
简单说便是:RCNN = resized-regions + CNN + SVM // LR
创新:首次将卷积神经网络用在目标检测上。
所谓空间金字塔池化是与图片金字塔或特征金字塔以相同的理念出发的,即对于最终的 feature map 采用不同大小的池化框,相当于多尺度的 pooling。从解决的问题出发。可认为是模仿的 bag-of-words 和 spatial-pyramid-matching。
SPP-net = CNN // regions + SPP + SVM // LR
创新:
fast-rcnn = CNN // regions + RoI-pooling + nn(multi-task)
创新:
尝试将耗时的 selective search 用神经网络实现,创新性地提出了 RPN,使得区域建议网络和 fast-rcnn 能够共享特征提取网络,速度和精确度再上一个台阶。自此基于 CNN 的检测框架基本定形。
faster-RCNN = CNN // RPN + RoI-pooling + nn(multi-task)
右上角标 * 的意味 target: \[ rpn\_cls\_loss = -\sum_i (p_i^* \log p_i + (1-p_i^*) \log (1 - p_i)) \\ rpn\_bbox\_loss = \sum_i p_i^* smooth\_L_1(t_i - t_i^*) \\ cls\_loss = - \sum_i \log p_{I_i} \\ bbox\_loss = \sum_i smooth\_L_1(t_i - t_i^*) \\ smooth\_L_1(x) = \{ ^{\beta x^2, |x|<1} _{|x| + \beta , otherwise} \]
- RPN 中每个候选框的得分值和 bbox_delta 都是仅通过特征图上的一个点(512通道)的信息得到的( A1 和 A2),其合理性是因为该点是候选框的中心点,认为已粗略地包含了框中特征的大部分信息。
- 而分类网络中每个候选框的得分值和 bbox_delta 是通过候选框的范围映射在特征图上的全部信息得到的。
trick:利用 (x, y, w, h) 的形式使得 (x1, y1, x2, y2) 可批量生成。
def _scale_enum(anchor, scales):
= _whctrs(anchor)
w, h, x_ctr, y_ctr = w * scales
ws = h * scales
hs = _mkanchors(ws, hs, x_ctr, y_ctr)
anchors return anchors
def generate_anchors(base_size=16, ratios=[0.5, 1, 2],
=2**np.arange(3, 6)):
scales= np.array([1, 1, base_size, base_size]) - 1
base_anchor # base_size依从原图到最终featuremap的pooling次数定
# scales依在featuremap上尺寸的期望定
= _whctrs(base_anchor)
w, h, x_ctr, y_ctr = w * h
size = np.round(np.sqrt(size / ratios))
ws = np.round(np.sqrt(size * ratios))
hs # ws/hs = [1/sqrt(ratios)] / sqrt(ratios) = 1/ratios
# ws, hs = array([23., 16., 11.]), array([12., 16., 22.])
= _mkanchors(ws, hs, x_ctr, y_ctr)
ratio_anchors = np.vstack([_scale_enum(ratio_anchors[i, :],
anchors
scales)for i in range(ratio_anchors.shape[0])
])#array([[ -83., -39., 100., 56.],
# [-175., -87., 192., 104.],
# [-359., -183., 376., 200.],
# [ -55., -55., 72., 72.],
# [-119., -119., 136., 136.],
# [-247., -247., 264., 264.],
# [ -35., -79., 52., 96.],
# [ -79., -167., 96., 184.],
# [-167., -343., 184., 360.]])
return anchors
通过利用 numpy 的 broadcast 机制,可得到所有点的候选框,举例:
= np.ones((1,9,4))
_anchors = np.ones((1,32*32,4)).transpose((1,0,2))
shift print(np.shape(_anchors + shift)) # array(32*32, 9, 4)
a.将 anchors 与 bbox_deltas 合并(平移+放缩)得到最初的 region proposal,并将候选框小的或跨越图像边界的删掉。
在训练时对每个标定的真值候选区域,与其重叠比例最大的region proposal记为前景样本(保证了每个 GT 都至少有一个候选框),剩余的region proposal,如果其与某个标定重叠比例大于0.7,记为前景样本,如果其与任意一个标定的重叠比例都小于0.3,记为背景样本(保证了候选框的合理性),其余的region proposal,弃去不用;对a)剩余的region proposal,根据每个框的 objectness 得分做排序删减。
对b)剩余的region proposal 做 nms,保留前一定数量的 proposals。
简而言之,当第 i 个 anchor 与 GT 间 IoU>0.7,则认为该 anchor 是 foreground,标记 label 为1;反之 IoU<0.3 时,认为是该 anchor 是 background,标记 label 为0;至于那些 0.3<IoU<0.7 的 anchor 则不参与训练。
创新:
对于 CNN 而言,越深的分类网络自然具有越强的平移不变性,但在检测网络中插入的 RPN 破坏了 backbone 的平移不变性,Faster-RCNN-resnet101 通过加大 RoI-wise 子网络的深度来勉强补救了该损失,而 R-FCN 通过将 RoI-wise 子网络的深度变为 0 的方法根本性地解决了这一问题。
由上图的 R-FCN 框架可以看出,只要采用全卷积网络的 backbone 就能实现深度为 0 的 RoI-wise 子网络,但有一个问题是,若用原始的 RoI-pooling,实验结果表明检测器无法收敛,作者未进一步说明原因。个人猜测是因为最终输出 score map 的卷积层须训练成为为一整个物体的分类器,而低复杂度的分类器(只有一层卷积层)无法适应高复杂度的特征(不像FC一样有全局感受野),故用并联卷积层,结合 position-sensitive RoI-pooling 使得不同通道的卷积层做不同部位的分类器,再在最后用求均值的投票方式得到最终分类结果(集成学习),这种设计方案属于增加分类器个数,相对性地降低了特征复杂度的方法。Faster-RCNN-resnet101 的精度比 R-FCN 高的实验结果也辅助性地说明了以上猜测的可靠性,当然若要进一步证明该猜测,须做更多的实验,如串联卷积层。
因为 RoI-wise 子网络的深度为 0,即 RoIs 是共享计算结果的,故将计算量与proposal的数量解耦,大大加快了速度(其实这也是 one stage 速度快的重要原因之一)。
因为 R-FCN 只是为尝试解决检测器平移不变性问题的通用框架,故位置定位的精修等优化操作可基于该框架做进一步的改进,如 Mask-RCNN。
附:
实现了物体检测与物体分类的解耦,通过超类的引入,使得大规模的物体检测成为可能。
超类生成方式:对每一类别的所有样本通过resnet101提取到2018维特征向量,并对其求均值,由此每一类便对应一个2018维特征向量(即该类别的特征表示),最后对所有类的特征表示做K-means聚类,确定超类。
原 RoI pooling 会出现 misalignment 的问题,其缘由于两次量化过程:
特征重采样:将 proposal 映射到 feature map 上时,坐标的四舍五入导致的量化误差;
RoI-max-pooling:将 feature map 上的 RoI 平均分割成 k * k 个单元时,每个单元坐标的四舍五入导致的量化误差;
故 0.1 个像素的偏差在原图上就是3.2个像素,0.9个像素的偏差在原图上达到了将近30个像素的差别,这对于小目标的检测影响会很大。
RoIAlign pooling 取消两次坐标的四舍五入,然后在每个单元中计算四个坐标位置,并用双线性插值计算出四个位置的值,最后通过最大池化操作得到最终结果。因为 misalignment 问题主要是对小物体的漏检有影响,对于大物体影响不大,故该操作在每个单元中只取几个固定坐标位置并用双线性插值计算便足矣。
在定位上,为获得更高的精度,自然倾向于更小的stride,通常的方法有两种:skip connection(FPN)和dilation,本质都是用别的方法将stride补上来,但RoIAlign 方案在 s/16 和 s/32 上精度一致,这个实验表明大的 stride 其实并不会导致定位精度的损失。
创新:
FPN与DSSD, TDM 均为Top-Down 结构,差异在于不同层级特征的融合方式不同:FPN 直接向加,DSSD 直接相乘,TDM 先做concat操作再用1x1卷积做特征融合。
其中 lateral connections 可理解为用于提取低层信息特征,并筛选可用特征。
https://zhuanlan.zhihu.com/p/40020809