Processing math: 100%
  • ISSN 0258-2724
  • CN 51-1277/U
  • EI Compendex
  • Scopus 收录
  • 全国中文核心期刊
  • 中国科技论文统计源期刊
  • 中国科学引文数据库来源期刊

多尺度注意力学习的Faster R-CNN口罩人脸检测模型

李泽琛 李恒超 胡文帅 杨金玉 华泽玺

杨彬, 胡晋铭, 张其林, 汪丛军. 基于行人重识别的施工现场人员位置信息感知[J]. 西南交通大学学报. doi: 10.3969/j.issn.0258-2724.20230125
引用本文: 李泽琛, 李恒超, 胡文帅, 杨金玉, 华泽玺. 多尺度注意力学习的Faster R-CNN口罩人脸检测模型[J]. 西南交通大学学报, 2021, 56(5): 1002-1010. doi: 10.3969/j.issn.0258-2724.20210017
YANG bin, HU Jinming, ZHANG Qilin, WANG Congjun. Location Information Perception of Onsite Construction Crew Based on Person Re-identification[J]. Journal of Southwest Jiaotong University. doi: 10.3969/j.issn.0258-2724.20230125
Citation: LI Zechen, LI Hengchao, HU Wenshuai, YANG Jinyu, HUA Zexi. Masked Face Detection Model Based on Multi-scale Attention-Driven Faster R-CNN[J]. Journal of Southwest Jiaotong University, 2021, 56(5): 1002-1010. doi: 10.3969/j.issn.0258-2724.20210017

多尺度注意力学习的Faster R-CNN口罩人脸检测模型

doi: 10.3969/j.issn.0258-2724.20210017
基金项目: 国家自然科学基金(61871335);中央高校基本业务费专项资金(2682020XG02,2682020ZT35);国家重点研发计划(2020YFB1711902)
详细信息
    作者简介:

    李泽琛(1996—),男,博士研究生,研究方向为图像处理与模式识别,E-mail:Lizc@my.swjtu.edu.cn

    通讯作者:

    华泽玺(1968—),男,副教授,博士,研究方向为轨道交通智慧运维、传感器与智能检测、监测,E-mail:huazexi@163.com

  • 中图分类号: TP391.41;TP183

Masked Face Detection Model Based on Multi-scale Attention-Driven Faster R-CNN

  • 摘要: 针对在佩戴口罩等有遮挡条件下的人脸检测问题,提出了多尺度注意力学习的Faster R-CNN (MSAF R-CNN)人脸检测模型. 首先,为充分考虑人脸目标多尺度信息,相较于原始Faster R-CNN框架,引入Res2Net分组残差结构,获取更细粒度的特征表征;其次,基于空间-通道注意力结构改进的Res2Net模块,结合注意力机制自适应学习目标不同尺度特征;最后,为学习目标的全局信息并减轻过拟合现象,在模型顶端嵌入加权空间金字塔池化网络,采用由粗到细的方式进行特征尺度划分. 在AIZOO和FMDD两个人脸数据集上的实验结果表明:所提出MSAF R-CNN模型对佩戴口罩的人脸检测准确率分别达到90.37%和90.11%,验证了模型的可行性和有效性.

     

  • 感知施工现场人员的位置信息、进行施工现场实体的追踪定位,能够为生产力分析、安全管理提供基础数据[1]. 相比基于无线电的方法定位,如无线电射频识别(RFID)、超宽带(UWB)和基于传感器的全球定位系统(GPS),基于计算机视觉的位置信息采集技术有成本低、无接触、效率高等优点[1-3].

    基于计算机视觉的施工实体追踪与定位研究多采用手工设计的图像特征(如梯度直方图和色彩直方图)进行目标检测和数据关联[1-2,4]. 数据关联即为目标检测结果分配ID,完成对目标的持续追踪. 相比基于深度学习的特征,手工设计特征是较为浅层的特征,鲁棒性差. 因此,Son等[5]使用深度残差网络作为主干网络进行特征提取,实现高精度的施工现场人员检测. Son等[3]使用YOLOv4[6]进行目标检测,并利用基准卷积神经网络对检测结果进行特征提取以实现目标匹配. Angah等[7]利用Mask RCNN (region-based convolutional neural networks)[8]作为检测器,并使用不同基准卷积网络进行特征提取,完成施工人员的匹配. Zhang等[9]利用行人重识别深度特征实现跨摄像头的施工现场人员匹配.

    行人重识别原是多目标多摄像头追踪的子任务,后来分离成为独立的研究方向,旨在利用目标图像实现行人跨时空的准确检索[10-11]. 上述人员追踪研究都仅仅将行人重识别方法用作特征提取器,并没有充分挖掘特征序列彼此之间的关联,以实现更准确的目标匹配;另一方面,行人重识别研究针对的场景大多为普通行人场景,相较之下,施工场景背景复杂、人员姿势丰富、着装更为相似、遮挡重叠更为严重,依靠外观特征进行匹配容易产生错误匹配,需要针对施工场景提出优化机制.

    本文采用YOLOv5算法进行目标检测,并提出一种基于行人重识别的数据关联方法,以实现对施工人员的视觉追踪. 该方法包括基于重排序的距离度量技术,能够考虑深度特征之间的关联性,从而增强对难样本的识别能力. 此外,还引入一种后处理机制,结合缓冲机制和特征动态更新,旨在优化匹配结果,充分考虑施工环境的动态性、复杂性及人员着装的相似性,以提高追踪的准确性. 在视觉追踪的基础上,运用图像透视变换实现对施工人员在现场的真实2D坐标及运动信息的持续感知,为生产力分析提供基础数据.

    算法由3个模块组成:目标检测、数据关联、坐标获取. 目标检测能够完成大类目标(如人员、机具、材料等)的识别与初步定位,但并不能实现大类下个体之间的区分,以及视频帧与帧之间目标的辨别. 因此,在目标检测的基础上进行数据关联,为被检测出的对象分配ID,实现目标的视觉追踪. 本文以行人重识别的视角建立了一种数据关联方法,每一帧通过目标检测网络输出的目标称为待检目标(query),这些目标需要和人员图像库(gallery,以下简称库)中的若干对象进行匹配,以为其分配ID. 完成数据关联后,基于图像透视变换完成施工人员现场真实位置信息获取,并结合帧率信息获取如运动距离、速度、时间等的基础生产力分析数据. 算法流程如图1所示,图中,qi为第i个待检目标,gj为库中第j个对象(库中储存图像是由深度网络提取到的深度特征而非直接存储图像,故称其为对象).

    图  1  算法流程示意
    Figure  1.  Algorithm process

    采用基于深度学习的单阶段目标检测方法YOLOv5[12],该方法是单阶段算法YOLO系列的第5版,为目前主流的单阶段算法之一. 实际采用YOLOv5l网络架构,并利用An等[13]提出的施工现场数据集,提取其中包含工人的部分图片和对应的标注信息,结合现场采集的图片,构建训练集以及验证集,其中,训练集6085张图片,验证集1522张图片.

    训练初始学习率为3.2 × 10-3,最终OneCycle学习率为0.12,动量为0.853,权重衰减为3.6 × 10-4,训练轮数为400轮,每轮样本数为16个. 训练目标框损失变化情况见图2. 在验证集中,训练后的网络检测平均精度均值(mean average precision,mAP)达到87.5%.

    图  2  目标检测网络目标框损失变化曲线
    Figure  2.  Target frame loss curves of target detection network

    通过基于深度学习的行人重识别网络提取代表目标外观特征的特征向量,利用特征向量之间的欧氏距离进行度量和对比,从而实现对施工现场不同工人的识别,并在遮挡和重叠情况下有效“重识别”同一目标.

    采用Luo等[14]提出的基准网络,如图3所示. 图中,GAP、BN、FC分别为全局平均池化层、批正则化层、全连接层. 网络的输出ID用于训练,而特征向量则用于推理和模型训练. 在测试阶段,使用在行人重识别标准数据集Market1501[15]上预训练的模型.

    图  3  行人重识别算法网络结构
    Figure  3.  Network structure of person re-identification algorithm

    将待检测目标与数据库中所有对象进行欧氏距离度量,并按距离从小到大对对象进行排序,生成初始序列,如式(1)所示. 在这个序列中,靠前的对象与待检测目标越相似,则为该待检测目标分配序列中第1个对象对应的ID.

    L0(qi)={g1,g2,,gJ},d1(qi,gj)<d1(qi,gj+1),j=1,2,,J1, (1)
    d1(qi,gj)=fqi,fgj2, (2)

    式中:$ d_{1}\left(q_{i}, g_{j}\right) $为qigj间的欧氏距离,J为库中对象数,$ {\boldsymbol{f}}_{qi} $和$ {\boldsymbol{f}}_{gj} $分别为qigj对应的特征向量.

    施工场景下人员穿着相似,排序靠前对象可能并非该待检目标的正确配对. 此外,ID分配仅考虑了外观特征的相似度,所构建序列的排序信息未得到充分利用,而目标和对象若属于同一ID,则二者的近邻之间有较高的相似度[16]. 为此,引入行人重识别研究中的重排序(re-ranking)概念,针对数据关联任务,提出一种基于k最邻近的重排序方法,并对重排序后的序列进行特征局部扩展,以获得更为鲁棒的特征表示,从而生成最终的优化序列,以提高算法在施工人员外观相似情况下的匹配准确性,如图4所示. 图中,gj右侧括号内的$ h_{p}^{(l)} $表示序列中对象gj的真实ID为l,并且在排序中是序列中第p个ID为l的对象,$ L_{1}\left(q_{i}\right) $、$ L_{*}\left(q_{i}\right) $分别为经过k最邻近重排序后的序列(优化序列1)和最终匹配序列,$ N\left(g_{j}, k\right) $为库中对象gjk最邻近集(定义见3.1.1节),$ q_{i}^{*} $为特征局部扩展后的待检目标.

    图  4  重排序示意
    Figure  4.  Re-ranking
    3.1.1   基于k最邻近的重排序

    取待检目标的k最邻近集$ N\left(q_{i}, k\right) $,也即初始匹配序列$ L_{0}\left(q_{i}\right) $中的前k项中满足距离阈值要求的对象集,如式(3)所示. 其中,k取值见式(4). 使用同样的方法,对$ N\left(q_{i}, k\right) $中每个对象计算其k最邻近对象集$ N\left(g_{j}, k\right) $(排除该对象本身). 基于建立好的近邻集,利用Jaccard距离[17],计算待检目标与其k最邻近集中对象的邻近距离$ d_{2}\left(q_{i}, g_{j}\right) $,表征集合间的相似度,如式(5)所示,对于待检目标的非k最邻近对象,该值取1. 采用欧氏距离与最邻近距离加权获得重排序后的序列,如式(6)所示,其中距离的计算见式(7).

    N(qi,k)={g1,g2,,gk},gjL0(qi), (3)
    k=min{k0,jmax},d1(qi,gj)<d0,j=1,2,,J, (4)
    d2(qi,gj)={1N(qi,k)N(gj,k)N(qi,k)N(gj,k),jk,1,j>k (5)
    L1(qi)={g1,g2,,gJ},d(qi,gj)<d(qi,gj+1),j=1,2,,J1, (6)
    d(qi,gj)=(1λ1)d1(qi,gj)+λ1d2(qi,gj), (7)

    式中:$ k_{0} $为设定的邻近数,$ d_{0} $为一距离阈值,$ \lambda_{1} $为近邻距离权重.

    3.1.2   特征局部扩展

    将待检目标本身的图像特征向量与重排序后序列的前$ k_{{\mathrm{e}}} $个对象对应的图像特征向量进行加权,如式(8)所示,其中$ k_{{\mathrm{e}}} $的取值见式(9). 该加权方法考虑了排序信息,根据对象特征在排序中的位置进行该对象特征权重的调整,能够确保越相近的对象被赋予更高的权重. 利用扩展的特征向量再次进行距离度量,获取该待检目标的最终匹配序列,如式(10)所示.

    fqi=(1λ2)fqi+λ2kej=1(kej+1)fgjkej=1(kej+1) (8)
    ke=min{ke0,max(j)},d(qi,gj)<de0,j=1,2,,J, (9)
    L(qi)={g1,g2,,gJ},d1(qi,gj)<d1(qi,gj+1),j=1,2,,J1, (10)

    式中:$ \lambda_{2} $为扩展权重,$ k_{{\mathrm{e}} 0} $为设定的扩展邻近数,$ d_{{\mathrm{e}}0} $为扩展距离阈值.

    匹配也即为待检目标分配ID. 跟行人重识别研究不同,数据关联任务中,每个待检目标获取的ID是唯一的,也即不存在多个待检目标被分配同一ID的情况,另外追踪过程中可能会出现此前库中没有的新目标,更类似于开放世界行人重识别任务[11]. 因此,为正确分配ID,不同于3.1节中仅度量待检目标与库中对象之间的距离,这里利用最终匹配序列$ L_{*}\left(q_{i}\right) $获取待检目标$ q_{i} $与库中ID间的距离. 计算所有待检目标与所有ID的距离以建立距离矩阵D,如式(11)所示.

    D=(d11d12d1ld1nd21d22d2ld2ndi1di2dildindm1dm2dmldmn)m×n, (11)

    式中:$ d_{il} $为待检目标qi与$ L_{*}\left(q_{i}\right) $中ID为l的第1个对象间的欧式距离,也即$ d_{1}\left(q_{i}^{*}, h_{1}^{(l)}\right) $,mn分别为这一帧的待检目标数和库中所有ID数.

    基于建立好的距离矩阵,采用改进的Jonker-Volgenant方法[18]为每个待检目标分配ID. 对于被分配ID为l的待检目标qi,若dil小于匹配阈值,则认为匹配成功,为其分配对应的ID;否则认为出现了库中没有的新目标,为其分配新的ID;此外若m>n,则表示出现了库中没有的目标,为这些没有被匹配到的待检目标分配新ID.

    3.3.1   缓冲机制

    施工场景复杂,常常出现遮挡和姿态变化等情况,使得即使待检目标确实属于某一数据库ID,也可能面临匹配失败. 此外,目标检测过程中可能存在误检,如果此时错误地赋予新ID,将导致匹配错误和误判. 为解决这一问题,引入缓冲机制,如图5所示. 该机制通过建立一个缓冲库来类比原始库. 每一帧的待检目标首先与库进行匹配,如果匹配失败,则会与缓冲库进行匹配. 如果成功,则该特征将被添加到缓冲库中. 当缓冲库中对应ID的特征向量数量达到设定阈值时,会将该待检目标加入主库并赋予新ID. 如果仍然匹配失败,则在缓冲库中为该待检目标创建新ID并存储其特征向量. 同时,缓冲库中连续若干帧匹配失败的ID将被删除. 最终的追踪结果由两个部分贡献组成:一是与库中目标成功匹配的目标,二是缓冲库中满足特征向量数量要求的目标. 该缓冲机制提高了算法的容错性,从而减少了错误匹配的发生.

    图  5  匹配结果后处理方法示意
    Figure  5.  Post-processing method for matching results
    3.3.2   特征动态更新机制

    对于匹配成功的若干待检目标,计算其两两间目标框的交并比(2个矩形相交面积与相并面积之比),若任意一个待检目标与其余待检目标的目标框交并比均小于阈值,则认为不存在较大重叠,将该待检目标的图像特征存入库中对应ID下,若该ID特征数满足限值,则随机替换非初始图像特征,见图5. 由于库并不能无限储存特征,特征的动态更新确保库中始终保留与当前目标相近的图像特征,从而提高姿态变化情况下的追踪准确率,并有效避免库中出现重叠的图像特征,减少错误匹配的发生.

    上述目标追踪方法只能获取人员与ID对应的像素坐标,为获取现场真实位置信息,需要进行坐标变换. 假定所有施工人员均位于同一施工平面,则可忽略深度信息,通过透视变换获取目标在平面上的真实2D坐标[19]. 在变换前需对相机进行基本的畸变矫正,如图1,这里不再赘述其过程.

    图像透视变换本质是利用图像的单应性实现2D图像之间的映射,在变换前后直线仍为直线,效果见图6. 图像坐标系$ uov$通过透视变换转换为设定的$ u^{\prime} o^{\prime} v^{\prime} $坐标系,与结构图对应. 透视变换式见式(12). 为求解透视变换矩阵,需选择4对参考点,例如图6中的4个点柱节点,实际计算时可选择超过4个点,利用随机抽样一致法(random sample consensus,RANSAC)获得更鲁棒的结果.

    图  6  透视变换示意
    Figure  6.  Perspective transformation
    w(xy1)T=A3×3(x0y01)T, (12)

    式中:$ \left(x_{0}\;\;\; y_{0}\;\;\; 1\right)^{{\mathrm{T}}} $和$ (x\;\;\; y\;\;\; 1)^{{\mathrm{T}}} $分别为变换前、后对应点的齐次坐标(变换前坐标采用目标框底边中点像素坐标),$ w $为比例系数,$ {\boldsymbol{A}}_{3 \times 3} $为透视变换矩阵.

    获取坐标后,结合视频帧率可以分析人员的运动信息. 通过设置采样频率,计算指定区间内的平均移速,如果该速度满足阈值要求,则判定目标处于运动状态. 同时,更新目标的运动距离和时间.

    在上海市某房屋建筑施工现场收集视频资料,并从不同视角和施工阶段中选取了具有各种施工现场特点的视频,以制作标准测试视频用于算法测试. 其详细信息见表1. 所有视频均以25帧/s的速度拍摄,且大部分场景中目标的外观相似度较高. 算法测试的软硬件配置如表2所示.

    表  1  标准测试视频详细信息
    Table  1.  Details of standard test videos
    编号 主要施工活动 视角 帧数/帧 目标数/个 难点
    1 混凝土浇筑 平视 1479 10136 尺寸差异、遮挡
    2 结构测设 平视 769 4606 尺寸差异、遮挡
    3 混凝土浇筑 俯视 754 9803 夜间、遮挡
    4 结构测设 俯视 616 8101 小目标、遮挡
    5 钢筋绑扎 俯视 1230 26922 小目标、遮挡
    6 混凝土浇筑 俯视 704 8427 夜间、小目标
    7 混凝土模板搭设 俯视 1131 5656 姿态改变、背景复杂
    8 预制柱吊装 俯视 1374 11220 动态性强、遮挡
    9 预制板吊装 俯视 866 4221 动态性强、遮挡
    10 脚手架搭建 俯视 497 6853 背景复杂
    11 钢筋加工 俯视 632 3265 人员离开又重进入
    下载: 导出CSV 
    | 显示表格
    表  2  软硬件配置详情
    Table  2.  Software and hardware configuration
    项目 详情
    监控设备 6寸球机 型号:DS-2DC6423IW-AE
    CPU Intel(R) Core(TM) i9-10900X @3.70 GHz
    GPU NVIDIA GeForce GTX 2080 Ti
    操作系统 Ubuntu 20.04.3
    编程环境 Python 3.8.8
    深度学习框架 Pytorch 1.9.1 + cu102
    下载: 导出CSV 
    | 显示表格

    采用多目标追踪准确度(multiple object tracking accuracy,MOTA)和IDF1(ID的F1得分)对目标追踪效果进行评价,其计算分别如式(13)、(14)所示.

    AMOT=1Tt=1(Mt+Wt+Mt)Tt=1Gt×100%, (13)
    FID=21/P+1/R×100%, (14)

    式中:$ M_{t} $、$ W_{t} $、$ M_{t} $、$ G_{t} $分别为第$ t $帧中的漏检数、误检数、ID切换数、真实目标数;T为视频总帧数,反映追踪的稳定性;PR分别为ID的准确率和召回率,能够综合反映ID的准确性.

    按照实验结果选取参数配置:匹配阈值0.6,缓冲库图像特征限值15个,库中每个目标的特征数限值20个,交并比阈值0.8. 其余参数设置为:$ k_{0}=20 $个,$ d_{0}=1.0 $,$ \lambda_{1}=0.8 $,$ k_{{\mathrm{e}} 0}=10 $个,$ d_{{\mathrm{e}}0}=0.6 $,$ \lambda_{2}=0.5 $. 部分场景追踪效果如图7所示,算法运行平均帧率达到15.2帧/s.

    图  7  不同场景视觉追踪效果
    Figure  7.  Visual tracking results in different scenes

    为验证算法的有效性,在不同场景中和其他追踪算法进行对比,结果见表3. 在大部分场景下,本文算法获得了最好的结果,平均IDF1和MOTA分别为85.4%和75.4%.

    表  3  不同算法在标准测试视频中的结果(IDF1/MOTA,%)
    Table  3.  Performance of different algorithms on standard test videos (IDF1/MOTA, %)
    算法 场景 1 场景 2 场景 3 场景 4 场景 5 场景 6 场景 7 场景 8 场景 9 场景 10 场景 11
    DAN*[20] 61.5/65.8 44.2/55.4 66.8/67.8 79.2/77.9 73.1/61.5 78.9/81.3 95.3/86.4 76.7/84.2 78.6/81.3 65.5/59.0 93.5/96.2
    TraDeS[21] 43.4/27.0 32.2/21.2 8.2/5.3 10.4/-10.8 8.8/-6.8 40.3/28.8 4.2/2.6 30.2/36.2 5.4/-0.7 10.5/2.8 40.4/16.6
    FairMOT[22] 48.7/47.0 51.4/54.0 18.4/13.5 47.9/40.5 12.0/0 61.9/45 10.1/9.6 29.1/33.6 28.2/18.2 11.6/5.7 49.8/43.5
    Trackformer*[23] 61.7/55.3 49.8/44.4 29.5/23.0 58.0/54.5 37.2/22.7 68.7/58.9 40.6/24.1 36.7/52.3 32.8/30.6 37.5/38.1 83.8/95.7
    Unicorn[24] 61.4/57.5 70.5/64.0 13.2/4.6 62.6/46.9 20.1/16.4 72.5/66.3 3.2/3.4 54.6/58.7 34.3/29.2 40.4/34.2 81.7/79.9
    ByteTrack[25] 73.4/63.7 67.3/62.4 64.6/58.2 82.1/73.5 38.5/29.6 77.6/71.2 33.4/31.1 61.8/67.1 52.6/54.1 47.0/34.4 83.0/75.8
    本文算法* 78.0/66.0 73.3/57.1 82.4/67.8 87.2/77.7 78.0/63.1 89.1/81.6 97.8/95.6 91.8/84.8 90.5/81.5 73.8/58.3 97.5/96.4
      注:带*的方法使用了相同的目标检测结果,最优结果加粗表示.
    下载: 导出CSV 
    | 显示表格

    为评估本文提出的基于重排序的距离度量方法及匹配后处理优化机制对算法性能的影响,对比了不同架构下的实验结果,详见表4. 结果显示,包含重排序方法和匹配后处理优化机制(包括缓冲机制和动态更新机制)的算法,相比于去除这二者后的算法,平均提高了52.8%的IDF1和3.8%的MOTA.

    表  4  不同架构下追踪结果详情(IDF1/MOTA,%)
    Table  4.  Tracking results with different architectures (IDF1/MOTA, %)
    架构 场景 1 场景 2 场景 3 场景 4 场景 5 场景 6 场景 7 场景 8 场景 9 场景 10 场景 11
    完整 78.0/66.0 73.3/57.1 82.4/67.8 87.2/77.7 78.0/63.1 89.1/81.6 97.8/95.6 91.8/84.8 90.5/81.5 73.8/58.3 97.5/96.4
    无重排序 77.3/66.0 60.1/56.6 81.6/67.6 77.8/77.5 74.8/61.9 88.1/81.4 97.8/95.6 80.6/84.2 90.4/81.3 66.8/58.3 95.9/92.6
    无缓冲 76.9/66.0 56.8/55.6 79.3/68.0 81.5/77.9 76.0/61.5 87.1/81.6 97.8/95.6 91.3/84.2 89.5/81.0 72.8/59.1 96.0/96.4
    无动态更新 67.0/62.9 47.1/53.5 46.7/60.5 56.1/66.4 45.0/54.7 69.2/77.8 68.4/91.9 60.4/79.4 69.1/78.5 51.3/51.2 92.3/93.7
    仅动态更新 70.0/65.9 55.5/55.5 76.4/67.9 74.0/77.7 64.7/61.5 84.5/81.5 93.9/95.6 78.0/84.1 81.4/81.1 63.3/58.9 88.0/96.2
    仅缓冲 60.6/63.6 31.0/53.0 30.1/59.3 36.2/68.9 28.3/53.9 60.3/77.2 40.2/87.3 37.5/78.8 45.1/77.0 27.0/52.3 44.7/90.2
    仅重排序 63.0/63.9 45.0/54.6 38.8/64.4 41.5/72.6 36.8/56.6 64.0/79.9 58.3/92.4 52.8/80.3 69.5/77.8 38.3/55.8 63.2/94.0
    无优化方法 47.8/63.4 27.8/53.4 22.9/62.5 29.6/73.3 21.7/56.2 49.2/79.0 31.6/91.3 29.1/80.4 37.7/77.9 24.5/56.4 36.7/94.1
    下载: 导出CSV 
    | 显示表格

    施工场景动态性强,人员除了大量的反复移动之外,姿态相较于普通行人场景更为丰富. 在动态更新机制作用下,视频帧率足够高,即使目标处于运动状态,目标帧间的变化也较小,帧间特征较为相似,确保了持续准确的匹配;此外,动态更新还能对重叠的特征进行过滤,减小目标框重叠导致的错误匹配. 重排序通过考虑特征序列之间相似度,进一步增强待检目标与其对应ID的相似性,从而提高匹配的准确性. 缓冲机制则在目标特征变化匹配失败时发挥作用,避免立刻分配新的ID,虽然可能会带来部分漏检,但提升了长时间追踪下的准确性.

    在俯视视角下选择如图6所示的现场坐标系,利用柱中心点、梁梁节点中心点共9对参考点求解透视变换矩阵,得到施工人员的坐标和轨迹信息如图8,移动距离采样为每25帧一次,运动状态判定阈值为0.5 m,获得位置信息数据如表5,坐标精确到cm.

    图  8  完整位置信息感知效果
    Figure  8.  Result of comprehensive location information perception

    本文提出的方法在施工场景下获得较高的追踪准确度,提升追踪精度. 然后,在部分场景下仍存在漏检、误检、错误匹配等现象. 在小目标场景下(如图7(b)),目标检测易出现漏检,此时依靠后续数据关联并不能恢复目标框,而目标本身的行人外观特征也不明显,特别是目标处于蹲姿的情况下,易发生错误匹配. 此外,施工现场重叠较多,由其是在平视且目标穿着相似的情况下. 如图9,在场景2平视视角下,3个相似目标出现了严重重叠,甚至是完全遮挡. 在遮挡后视野中出现穿着相似的新目标会引起ID切换. 一般情况下,遮挡后可利用行人重识别特征进行“重识别”,但在严重重叠的情况下,目标检测可能失效,且因外观高度相似,重识别特征也难保证准确匹配.

    表  5  运动数据获取结果
    Table  5.  Attained movement data
    ID 移动距离/m 在场总时间/s 移动时间/s 平均速度/
    (m•s−1
    0 52.2 78.0 37.8 1.4
    1 12.3 78.0 9.0 1.4
    2 0.5 78.0 0.6 0.8
    3 7.0 77.8 7.0 1.0
    4 28.0 76.1 25.6 1.1
    5 17.4 33.5 16.6 1.0
    下载: 导出CSV 
    | 显示表格
    图  9  测试场景2中的错误匹配情况
    Figure  9.  Mismatch in scene 2

    为进一步改善追踪的效果,首先,针对小目标,可以优化目标检测网络以提升检测性能[26];其次,引入先验信息,例如根据现场布局或结构图纸预先标记可能的遮挡物,并预测重新出现的位置,同时结合多摄像头数据优化匹配结果;此外,还可考虑建立施工场景的行人重识别数据集,并融合多源数据进行开放世界人员重识别. 在算法效率方面,由于本文算法在有限硬件设备下未能实现实时图像处理,因此可以考虑采用轻量化行人重识别网络来提高算法的效率. 最后,本文基于图像透视变换获取了现场真实坐标,但由于施工现场动态性较强、人员密集,并没有对获取的精度进行检验,未来可考虑结合传感器等设备对坐标精度进行验证.

    1) 本文提出的基于行人重识别的方法能够在不同施工场景下进行准确的人员追踪,并获得现场真实坐标与运动信息,在测试视频中平均IDF1和MOTA分别达到85.4%和75.4%.

    2) 提出的基于重排序的距离度量方法对目标序列排序结果进行了优化,提高了目标间相似性度量的准确性,有效提升了追踪的准确度.

    3) 提出的包含缓冲机制和动态更新机制的匹配后处理方法充分考虑了施工场景的动态性、复杂性,能够有效减少由于重叠、遮挡等带来的错误匹配.

  • 图 1  Res2Net模块

    Figure 1.  Res2Net module

    图 2  SCA-Res2Net模块

    Figure 2.  Structure of SCA-Res2Net module

    图 3  WSPP-Net模块

    Figure 3.  Structure of WSPP-Net

    图 4  MSAF R-CNN模型

    BN —batch normalization

    Figure 4.  MSAF R-CNN model

    图 5  数据集部分图像

    Figure 5.  Partial images of datasets

    表  1  不同分组数实验结果

    Table  1.   Experimental results under different numbers of groups %

    数据集类别分组数
    246810
    AIZOOFace90.4390.3290.1189.9290.10
    Mask89.9590.3789.8690.2789.50
    mAP90.1990.3589.9990.1089.80
    FMDDFace86.2187.2786.1786.5086.17
    Mask89.9990.1190.0490.2189.99
    mAP88.1088.6988.1088.3588.08
    下载: 导出CSV

    表  2  不同压缩比实验结果

    Table  2.   Experimental results under different compression ratios %

    数据集类别压缩比
    1012141618
    AIZOOFace90.3190.3990.1290.3290.41
    Mask89.7990.0890.2090.3789.87
    mAP90.0590.2390.1690.3590.14
    FMDDFace86.9884.8986.2687.2786.30
    Mask89.9089.6890.2590.1189.86
    mAP88.4487.2988.2688.6988.08
    下载: 导出CSV

    表  3  WSPP-Net不同多尺度窗口大小实验结果

    Table  3.   Experimental results under different window sizes in WSPP-Net %

    数据集类别窗口大小
    S1S2S3S4
    AIZOOFace90.0890.3290.3290.38
    Mask90.3190.3790.1390.01
    mAP90.2090.3590.2290.19
    FMDDFace86.5187.2786.5686.45
    Mask89.7690.1189.6089.99
    mAP88.1488.6988.0888.22
    下载: 导出CSV

    表  4  不同检测方法的性能

    Table  4.   Performance of different methods %

    数据集类别模型 1模型 2模型 3模型 4MSAF R-CNN
    AIZOOFace87.3290.4289.9490.1990.32
    Mask78.1589.8489.7189.9990.37
    mAP82.7390.1389.8290.0990.35
    FMDDFace86.0186.4184.4485.0587.27
    Mask77.9590.0189.9490.1090.11
    mAP81.9888.2187.1987.5888.69
    下载: 导出CSV

    表  5  消融实验结果

    Table  5.   Ablation experimental results of feature removal and fusion %

    数据集类别模型 5模型 6模型 7MSAF R-CNN
    AIZOOFace90.4389.9290.4090.32
    Mask90.0590.0390.0090.37
    mAP90.2489.9790.2090.35
    FMDDFace85.1386.0186.2387.27
    Mask89.9390.0089.9890.11
    mAP87.5388.0188.1088.69
    下载: 导出CSV
  • VIOLA P, JONES M. Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001. Kauai: IEEE, 2001: I.511-I.518.
    LIENHART R, MAYDT J. An extended set of Haar-like features for rapid object detection[C]//Proceedings of International Conference on Image Processing. New York: IEEE, 2002: I.900-I.903.
    胡丽乔,仇润鹤. 一种自适应加权HOG特征的人脸识别算法[J]. 计算机工程与应用,2017,53(3): 164-168. doi: 10.3778/j.issn.1002-8331.1506-0183

    HU Liqiao, QIU Runhe. Face recognition based on adaptively weighted HOG[J]. Computer Engineering and Applications, 2017, 53(3): 164-168. doi: 10.3778/j.issn.1002-8331.1506-0183
    张路达,邓超. 多尺度融合的YOLOv3人群口罩佩戴检测方法[J]. 计算机工程与应用,2021,57(16): 283-290.

    ZHANG Luda, DENG Chao. Multi-scale fusion of YOLOv3 crowd mask wearing detection method[J]. Computer Engineering and Applications, 2021, 57(16): 283-290.
    魏丽,王洁,姜昕言,等. 遮挡条件下的人脸检测与遮挡物属性判识[J]. 计算机仿真,2020,37(9): 441-445,450. doi: 10.3969/j.issn.1006-9348.2020.09.093

    WEI Li, WANG Jie, JIANG Xinyan, et al. Face detection and obstacle attribute identification under occlusion[J]. Computer Simulation, 2020, 37(9): 441-445,450. doi: 10.3969/j.issn.1006-9348.2020.09.093
    薛均晓,程君进,张其斌,等. 改进轻量级卷积神经网络的复杂场景口罩佩戴检测方法[J]. 计算机辅助设计与图形学学报,2021,33(7): 1045-1054.

    XUE Junxiao, CHENG Junjin, ZHANG Qibin, et al. Improved efficient convolutional neural network for complex scene mask-wearing detection[J]. Journal of Computer-Aided Design & Computer Graphics, 2021, 33(7): 1045-1054.
    LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[M]//Computer Vision – ECCV 2016. Cham: Springer International Publishing, 2016: 21-37.
    迟万达,王士奇,张潇,等. 基于轻量化SSD的人脸检测模型设计[J]. 计算机与网络,2021,47(5): 69-73. doi: 10.3969/j.issn.1008-1739.2021.05.055

    CHI Wanda, WANG Shiqi, ZHANG Xiao, et al. Design on face detection model based on lightweight SSD[J]. Computer & Network, 2021, 47(5): 69-73. doi: 10.3969/j.issn.1008-1739.2021.05.055
    GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 580-587.
    GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago: IEEE, 2015: 1440-1448.
    REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. doi: 10.1109/TPAMI.2016.2577031
    GAO S H, CHENG M M, ZHAO K, et al. Res2Net:a new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(2): 652-662. doi: 10.1109/TPAMI.2019.2938758
    BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[EB/OL]. (2014-09-01)[2020-12-20]. https://www.researchgate.net/publication/265252627_Neural_Machine_Translation_by_Jointly_Learning_to_Align_and_Translate.
    ZHU Y S, ZHAO C Y, GUO H Y, et al. Attention coupleNet:fully convolutional attention coupling network for object detection[J]. IEEE Transactions on Image Processing, 2019, 28(1): 113-126. doi: 10.1109/TIP.2018.2865280
    ZHANG J F, NIU L, ZHANG L Q. Person re-identification with reinforced attribute attention selection[J]. IEEE Transactions on Image Processing, 2021, 30: 603-616. doi: 10.1109/TIP.2020.3036762
    HE L, CHAN J C W, WANG Z M. Automatic depression recognition using CNN with attention mechanism from videos[J]. Neurocomputing, 2021, 422: 165-175. doi: 10.1016/j.neucom.2020.10.015
    HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 770-778.
    MUDUMBI T, BIAN N Z, ZHANG Y Y, et al. An approach combined the faster RCNN and mobilenet for logo detection[J]. Journal of Physics:Conference Series, 2019, 1284: 012072.1-012072.8.
    SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]//3rd International Conference on Learning Representations. San Diego: [s.n.], 2015: 1-14.
    SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Boston: IEEE, 2015: 1-9.
    HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 7132-7141.
    WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[M]//Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 3-19.
    XI O Y, KANG G, PAN Z. Spatial pyramid pooling mechanism in 3D convolutional network for sentence-level classification[J]. IEEE/ACM Transactions on Audio,Speech,and Language Processing, 2018, 26(11): 2167-2179. doi: 10.1109/TASLP.2018.2852502
    YANG R, ZHANG Y, ZHAO P F, et al. MSPPF-nets: a deep learning architecture for remote sensing image classification[C]//IGARSS 2019 - 2019 IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE, 2019: 3045-3048.
    WANG H J, SHI Y Y, YUE Y J, et al. Study on freshwater fish image recognition integrating SPP and DenseNet network[C]//2020 IEEE International Conference on Mechatronics and Automation (ICMA). Beijing: IEEE, 2020: 564-569.
    WANG T, YUAN L, ZHANG X, et al. Distilling object detectors with fine-grained feature imitation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 4928-4937.
    YANG S, LUO P, LOY C C, et al. WIDER FACE: a face detection benchmark[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 5525-5533.
    GE S M, LI J, YE Q T, et al. Detecting masked faces in the wild with LLE-CNNs[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017: 426-434.
    LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice: IEEE, 2017: 2999-3007.
  • 加载中
图(5) / 表(5)
计量
  • 文章访问数:  686
  • HTML全文浏览量:  359
  • PDF下载量:  66
  • 被引次数: 0
出版历程
  • 收稿日期:  2021-01-11
  • 修回日期:  2021-07-07
  • 网络出版日期:  2021-07-16
  • 刊出日期:  2021-10-15

目录

/

返回文章
返回