行人再识别问题是一个重要且具有挑战性的经典计算机视觉任务。由于存在光照变化、视角变化、遮挡、背景杂乱、行人姿态多样等复杂因素,目前的研究的测试性能往往不能尽如人意。
为了解决上述问题,自动化所智能感知与计算研究中心引入了以下方法来达到去除背景、提高模型泛化性能、提高图像利用率的目的。
首先,引进了二值化的行人分割轮廓图作为额外输入,并与彩色图像合成为四通道的新输入,然后设计了一种基于分割轮廓图的对比注意模型来学习背景无关的行人特征。在此基础上,提出一种区域级别的三元组损失函数,分别来约束来自全图区域、行人身体区域、背景区域的特征,提出的损失函数可以让来自全图区域和行人身体区域的特征在特征空间靠近,并远离背景区域,最终达到去除背景的作用。所提出的方法在三个行人再识别数据集上验证了有效性,取得了当前最好的性能。
其次,提出了一种特殊的样本来扩充数据集:对抗式遮挡样本。整个方法流程如下:(1)按照常用的方法训练一个ReID模型;(2)通过网络可视化的方法找出模型在识别训练样本时所关注的区域,对这些区域进行(部分)遮挡就可以产生新的样本,同时保持这些样本原有的类别标签;(3)把新的样本加入到原始数据集中,按照之前的方法训练一个新的模型。这种样本不仅模拟了现实中的遮挡情况,而且对于模型来说是困难样本,可以给模型的训练提供动量,从而跳出局部极小点,减少模型的过拟合。实验发现原始的ReID模型识别训练样本时只关注一些局部的身体区域,加入新样本训练后的模型则可以同时关注到一些之前没关注的身体区域,从而提高了模型在测试阶段的鲁棒性。
最后,为了解决只有部分行人图像可供识别的问题,提出利用全卷积网络抽取与输入图像尺寸相对应的空域特征图,并提出一种不需要行人对齐的方法(深度空域特征重建)来匹配不同尺寸大小的行人图像。特别地,借鉴字典学习中重建误差来计算不同的空域特征图的相似度。按照这种匹配方式,利用端到端学习方法增大来自于同一个人的图像对的相似度,反之亦然。 该方法不需要对齐,对输入图像尺寸没有限制,在Partial REID,Partial iLIDS和Market1501上取得较好效果。
上述研究将发表在国际计算机视觉与模式识别大会CVPR2018上。
参考资料:
Mask-guided Contrastive Attention Model for Person Re-Identification
Chunfeng Song, Yan Huang, Wanli Ouyang, and Liang Wang
Adversarially Occluded Samples For Improving Generalization of Person Re-identification Models
Houjing Huang, Dangwei Li, ZhangZhang, Kaiqi Huang
Deep Spatial Feature Reconstruction for Partial Person Re-identification: Freestyle Approach
Lingxiao He, Jian Liang, Haiqing Li, Zhenan Sun