Masked Face Detection Model Based on Multi-scale Attention-Driven Faster R-CNN
-
摘要: 针对在佩戴口罩等有遮挡条件下的人脸检测问题,提出了多尺度注意力学习的Faster R-CNN (MSAF R-CNN)人脸检测模型. 首先,为充分考虑人脸目标多尺度信息,相较于原始Faster R-CNN框架,引入Res2Net分组残差结构,获取更细粒度的特征表征;其次,基于空间-通道注意力结构改进的Res2Net模块,结合注意力机制自适应学习目标不同尺度特征;最后,为学习目标的全局信息并减轻过拟合现象,在模型顶端嵌入加权空间金字塔池化网络,采用由粗到细的方式进行特征尺度划分. 在AIZOO和FMDD两个人脸数据集上的实验结果表明:所提出MSAF R-CNN模型对佩戴口罩的人脸检测准确率分别达到90.37%和90.11%,验证了模型的可行性和有效性.Abstract: For the purpose of masked face detection, a multi-scale attention-driven faster region-based convolutional neural network (MSAF R-CNN) model is proposed. First, given the Faster R-CNN model architecture and the multi-scale information of the face, Res2Net, a grouped-residual structure, is introduced to model more fine-grained features. Then, inspired by the attention mechanism, a novel spatial-channel attention Res2Net (SCA-Res2Net) module is developed to learn the multi-scale features adaptively. Finally, to further learn the global feature representation and ease the overfitting problem, the weighted spatial pyramid pooling network is embedded on the top of the model, which can segment the feature maps into different groups from finer to coarser scales. Experimental results on the AIZOO and FMDD datasets show that the accuracy of masked face detection with the proposed MSAF R-CNN model can reach 90.37% and 90.11%, respectively, thus verifying the feasibility and effectiveness of the proposed model.
-
Key words:
- masked face /
- deep learning /
- attention mechanism /
- multi-scale learning /
- feature fusion /
- object detection
-
场地效应被广泛定义为特定的近地表地质特征对地震波的影响,可以显著改变地震运动的峰值、持续时间和频谱幅度[1]. 由于软土沉积物的各向异性或不均匀性、局部地形、沉积盆地深度和近地表衰减等多维效应的影响,量化场地效应具有挑战性.
地震危险性评估旨在预测特定区域或场地的地面运动强度,其核心手段是采用经验记录数据后进行回归分析以构建地震动预测方程(GMPEs). 在GMPEs中,场地效应通常由场地卓越频率和地下30 m的平均剪切波速(Vs30)表征. Vs30参数可以反映一些场地特性,但不足以描述考虑场地下方土壤特性引起地面运动频率相关的场地放大[2]. 随着概率地震危险性分析的不断深入,对场地效应进行更为精细的定量评估以改进地震危险性分析正逐渐成为研究焦点[3-4].
近年来,基于地表观测记录与土层底部输入运动之比为场地放大的认识,提出了用不同的经验方法来获取频率相关的场地放大系数,如井上井下谱比法、传统谱比法[5]、水平垂直谱比法(HVSR)[6]等. 由于钻孔技术在世界各地并未完全得到发展,井上井下谱比法被限制. 传统谱比法假设地表基岩场地的记录相当于土层底部输入值,但在土层场地紧靠地表基岩场地时才有效[5],地震动广义反演技术(GIT)的提出克服了这一局限性[7]. 广义反演技术又称线性反演法,通过对强震记录的联合反演,可以高效地分离强震记录中震源、路径、场地的3种贡献[8-9]. HVSR假设地下基岩的各向是同性的[6],使用单台记录H/V即可得到场地效应[10]. GIT需要大量的强震数据作为支持,而HVSR的适用性至今备受争议[11].
该研究选取由 17 个强震动台站获取的21个汶川地震余震中的 233 组强震动记录,采用广义线性反演法、HVSR法对比研究该区域内的局部场地效应,讨论了地震波传播的方向性对HVSR的影响,同时使用线性反演法对HVSR进行经验修正. 本文结果可对该区域的地震危险性分析提供重要的参考.
1. 强震数据
1.1 数据选取
基于汶川余震强震动波形记录展开研究,HVSR方法只需要单个台站强震波形即可获取场地效应值,因此,采用线性反演法的数据选取原则:
1) 选取地表岩石台站作为参考台站,同时不考虑未被参考台站记录到的地震事件.
2) 选取10 km≤震源距≤150 km,考虑对区域内的衰减路径的影响[12].
3) 选择2 cm/s2≤PGA<150 cm/s2的记录,PGA为地面运动的峰值加速度. 考虑到一组强震记录包括3个不同方向的PGA值,采取各组中PGA的最大值作为评估标准,目的是一定程度地消除背景噪声与场地土层非线性效应的影响.
4) 保证选取的每个台站记录到5次以上的事件,且每个事件被5个及以上台站记录到.
基于以上原则,该研究共选取了17个台站在21次地震中记录到的233组三分量强震记录,台站51MXT是线性反演的参考站,该台站布设于稳定的露头岩石[13]. 强震动波形记录的PGA与震源距的关系如图1所示. 可以发现:大部分记录都小于50 cm/s2,大于100 cm/s2的记录只有7条,尽可能在保留地震动数据的同时,排除非线性反应的影响. 震中与台站的方位地形如图2.
1.2 数据处理
1) 强震动观测记录的三分量方向(EW、NS、UD方向)与SH波、SV波及P波的实际振动方向并不完全一致. 以接收台站为参考点,采用反向方位角方法,将观测记录转换为与SH波和SV波方向对应的波形记录.
2) 利用STA/LAT-AIC方法从每条强震动波形中识别P波到时,截取P波前与S波时间窗等长的部分确定噪声水平. 对于S波时间窗,使用Husid图识别S波到时,使用累积均方根函数S波结束的时间[14],保证S波的时间窗至少为4 s,以确保频谱分辨率. 图3(a)为该识别过程的示例.
3) 截取S波时间窗后,首先,对于时域S波波形进行基线校正处理;接着,采用四阶Butterworth非因果滤波器进行双向滤波处理,设置滤波频率范围为0.4~20.0 Hz. 为了避免信号泄露,滤波完成后,在波形信号前后添加5%的汉宁窗函数[15].
4) 经上述处理后,对S波波形快速傅里叶变换,并使用带宽为20的Konno-Ohmachi滤波器进行平滑处理[16],以消除毛刺的影响. 最后,对0.4~20.0 Hz频域之间40个均匀对数间隔内的数据进行插值采样,处理效果如图3(b)所示.
2. 研究方法
2.1 线性反演
远场地震动S波的加速度记录Oij在频域内可以表示为震源Si、传播路径Pij、场地Gi的乘积,如式(1).
Oij(f)=Si(f)Pij(f)Gi(f), (1) 式中:i、j分别代表事件与台站,f为频率.
传播路径项P常仅考虑几何衰减γ(Rij)和地震波经过地壳介质的非弹性衰减(通常表现为品质因子Qs(f)的函数),如式(2).
Pij=exp(−πRijf/Qs(f)Vs)γ(Rij), (2) 式中:Rij为震中距,Vs为3.6 km/s区域的地壳平均S波波速.
采用铰链三段式模型来表示几何衰减γ(Rij) [12],该模型解释了地壳与地幔的边界对地震波传播的影响[17],如式(3).
γ(Rij)={R−b1ij,R⩽R01,R−b101R−b201R−b2ij,R01<R⩽R02,R−b101Rb201R−b202Rb302R−b3ij,R>R02, (3) 式中: R01=1.5D,R02=2.5D,b1=1.0,b2=0,b3=0.5,D为地壳厚度,R为震中距离.
在确定传播路径Pij之后,选取记录同一地震事件的露头岩石场地的观测数据作为约束. 通过土层台站与基岩台站的频谱比,直接消除同一地震事件的震源项Si. 随后,对等式两侧同时取对数,最终表示为
gj+aijQ−1s=dij, (4) 式中:gj=lnGjGr;aij=πf(Rir−Rij)Vs;dij=lnOijγ(Rij)Oirγ(Rir),下标r为参考台站.
将式(4)用矩阵的形式表示为
Ax=b, (5) 式中:x为模型参数矩阵,由式(4)中的场地效应gj和Qs组成.
线性反演的过程就是寻找式(5)中x的解,可通过最小二乘QR分解法一步求解[18].
2.2 强震记录的HVSR法
HVSR求解场地效应可以直接表示[6]为
GHVSR(f)=1NN∑i=1(|SH(f)||SV(f)|)12UD(f), (6) 式中:GHVSR(f)为强震记录HVSR的场地效应结果,N为记录地震事件的数量,SH(f)、SV(f)、UD(f)分别为强震记录SH波、SV波以及UD分量的傅里叶幅值谱.
3. 几何扩散函数与Qs值
线性反演法中,衰减模型的合理性对反演的可靠程度具有重要影响. 四川西部地区地壳结构复杂,区域平均地壳厚度在川西北地区的64 km逐渐减少到四川盆地的43 km,而在龙门山断裂带附近,地壳厚度从西北侧的52.5 km减少到东南侧的41.5 km[ 19]. 为了构建区域几何衰减模型,该研究选取龙门山断裂两侧平均地壳厚度47 km,以此确定R01为70 km、R02为120 km(根据式(3)),进而得到式(7),该公式描述了考虑莫霍反射影响的龙门山区域三段式几何衰减模型.
γ(Rij)={R−1,R⩽70km,1/70,70km<R⩽120km,(1/70)×(120/R)0.5,R>120km. (7) 根据三段式几何衰减函数,反演了区域内S波的品质因子Qs,随后使用正交最小二乘回归得到Qs与频率的相关性,如式(8).
Os(f)=199.2f0.8. (8) 常用Qs(f)和Qs(f)−1来讨论地震波的衰减,此处采用与衰减成正比的Qs(f)−1进行讨论. 附近区域的其他研究结果与本研究的对比见图4[20-22],可以发现:不同区域内差异性显著. 表征品质因子的参数方程Qs(f)=Q0 f n中,n值(频率相关程度)越大,区域内介质衰减速率越快. Q0 (频率为1 Hz的Qs值)大小可能与研究区域的震源距有关,震源距越大,地震波更容易在相对较深的介质中传播,通常地壳深部介质的Qs值较大[20].
4. 场地效应分析
4.1 HVSR的理论基础
强震记录HVSR方法比地脉动的H/V谱比方法更为复杂,震源机制、震中距(以及场地各向异性、非线性等因素)都可能会对场地效应谱比结果造成影响[23].
从机理的角度分析,对于HVSR结果近似为水平向S波场地效应的结论,Nakamura[6]提出了2个重要的假设:1) 首先,假设在坚硬的基底,地震波的传播方式具有各向同性的特点,地震基岩处地震波的水平和垂直分量大致相等. 该假设已通过Nakamura进行的井下微震测量实验得到验证;同时,对于强震动记录,Rong等[24]也证实了地下基岩处水平分量与竖向分量的比值近似等于常数1. 2) 假设垂直分量不受局部场地效应影响,即土层对地震波的垂直分量没有放大作用. 因此HVSR理论可以通过式(9)进行描述.
GHVSR(f)=H(f)Hb(f)Hb(f)Vb(f)Vb(f)V(f), (9) 式中:H(f)与V(f)分别为地表强震记录的水平与垂直分量,Hb(f)与Vb(f)分别为地下基岩强震记录的水平与垂直分量.
当Hb(f)=Vb(f),Vb(f)=V(f)时,GHVSR等于地表水平分量傅里叶谱与地下水平分量傅里叶谱的比值,即为场地效应.
4.2 方位角对HVSR的影响
HVSR理论简化了地震波的传播过程. 该方法基于基岩地震动的各向同性(根据Nakamura的假设1) 消除了控制地震地面运动三要素的震源特性与传播路径因素. 然而,大小地震的破裂过程通常具有复杂的方向性效应. HVSR方法中,这种不确定的方向性作用均被归为场地效应. 一些研究发现,将强震记录旋转至地震与台站的大圆弧方向(SH波与SV波振动方向)进行H/V谱比似乎更有效[23],该研究数据处理阶段已经考虑到了这一点. 为了深入研究方向性效应对HVSR结果的影响,该研究展开了以下讨论:
1) 对SH波、SV波以及水平分量的幅值差异进行了检验,以台站51HSD记录的地震事件为例,通过傅里叶谱比方法进行分析,如图5. 分析表明,水平分量的傅里叶幅值大于SH波和SV波. 此外,SH波、SV波的幅值同样具有差异,尤其是在低频部分,而中高频较为稳定. 低频长周期信号的异常通常由记录质量或背景噪声引起,导致SH、SV波在低频段展现出固有的差异. 该差异与方位角的影响较小,在后续的讨论中应进行区分.
2) 该研究对来自不同方向的多次地震事件进行HVSR场地效应分析(多向HVSR),揭示了场地效应具有明显的优势方向. 以51HSD台站为例进行的多向HVSR显示,在震中相对于台站的SE方向(约135°)时,HVSR的场地放大系数最大,随方位角的增减而减小(图6(a)). 此外,水平分量的谱比结果最为显著,而SV波的谱比结果相对最小. 值得注意的是,不同方位角对场地卓越频率估计的影响较小(图6(b)),解释了使用HVSR方法估计场地卓越频率显示出稳定性的原因.
3) 使用旋转HVSR的方法,进一步讨论方位角的影响. 以51HSD台站为例,以震中至台站的大圆弧方向作为0° 基准,对一次强震动波形数据在0~180° 的范围内,以5° 为间隔进行旋转,并计算了每个旋转间隔下的HVSR场地效应. 如图7所示,不同旋转方位角对HVSR结果有显著影响,并且在特定的旋转角度,HVSR的场地放大结果出现显著的“突变”,该现象验证了HVSR结果具有优势方向的观点. SH波与SV波的旋转HVSR结果存在差异,尽管“突变”位置有角度差异,场地放大值的差异却相对较小. 这种现象初步被认为是由于SH波和SV波固有的方向性以及其在低频的差异所导致的. 需要指出的是,采用单台单次记录进行旋转分析,结果可能具有一定的随机性,但多次强震记录求平均值的方式从机理上混淆了方位角,因此排除了使用该方案.
4.3 线性反演与HVSR对比
为了确保安全性,主要基于幅值较大的水平分量记录进行场地效应评估. 比较基于S波水平分量的HVSR和线性反演法得出的场地效应值发现,这2种方法的结果存在显著差异(图8).
基于HVSR的2个关键理论基础,本文首先考察了地震波在基岩中传播的理论差异,如方位角的影响. 在场地效应评估中,通过采用多次记录的平均值,可以有效减轻方位角的影响. 其次,土层的竖向放大作用可能是导致HVSR与线性反演法在场地效应评估中存在差异的一个关键因素. 因此,部分研究重点强调竖向场地放大的作用[25].
本文重新对汶川垂直分量波形记录进行了线性反演分析,以评估区域内土层的竖向放大效应. 如图9所示,大部分观测台站中,土层的竖向放大效应显著. 该现象将对HVSR的场地效应结果产生重要影响. 此时,式(9)中竖向放大被低估(高估),竖向放大与P波的传播相关,P波主要来自SV波的转换,而非P波的特定时间窗口部分. SV波将能量传递至垂直方向,进而导致了HVSR失效[25]. 因此,为了补偿垂直放大对HVSR评估的影响,HVSR场地效应的修正方法可以表示为
GRHVSR(f)=GHVSR(f)GV(f), (10) 式中:GRHVSR(f)为竖向校正后的HVSR场地效应结果,GV(f)为线性反演法计算的土层竖向放大.
GRHVSR与线性反演的水平向的对比结果如图10所示. 结果表明:大多数台站都存在着场地放大现象,且能清楚识别出卓越频率;GRHVSR的结果大于线性反演法,与HVSR结果偏小的普遍认识相悖. 该现象一方面表现出场地竖向校正产生了效果,使HVSR的结果接近于真实值;另一方面说明线性反演法的结果也存在着误差,具体原因可能是露头岩石台站51MXT存在场地效应. 参考台站场地效应的低估导致了线性反演结果偏小.
通过Delaunay三角测量方法将17个台站的线性反演结果以地理分布图的形式展示(图11,三角形标记是台站位置),场地效应与场地卓越频率呈现出一定的‘反比’关系,即场地效应随着卓越频率的增大而减小. 等值线地理图为研究区域内的场地效应、场地卓越频率提供参考价值.
5. 结 论
本研究选取由17个强震动台站获取的21个汶川地震余震中233组强震动记录,通过线性反演法、强震记录HVSR法对比研究余震涉及区域内场地效应,主要工作及结论为
1) 衰减因子Qs值的估计. 结合龙门山地区实际情况,建立三段式衰减模型,本研究得到区域内地球介质衰减过程中S波的品质因子Qs(f)=199.2f 0.8.
2) 方位角对HVSR的影响. 使用旋转HVSR、多向HVSR方案,研究了HVSR结果存在的方向性. 随着角度的变化,HVSR的放大值可能会出现突然放大的现象,但不同方向角对卓越频率的影响不大,该现象需要进一步的研究.
3) HVSR方法的经验修正. 竖向地震动的放大,即场地土层、工程基岩或中深部硬岩层耦合形成的竖向场地效应是HVSR与广义线性反演法产生差异的主要原因.
致谢:感谢中国地震局工程力学研究所强震动观测中心为本研究提供的数据支持;感谢研究所专项基金(DQJB24Z01、DQJB24R31、DQJB22Z03、DQJB21Z15)为本研究提供联合资助.
-
表 1 不同分组数实验结果
Table 1. Experimental results under different numbers of groups
% 数据集 类别 分组数 2 4 6 8 10 AIZOO Face 90.43 90.32 90.11 89.92 90.10 Mask 89.95 90.37 89.86 90.27 89.50 mAP 90.19 90.35 89.99 90.10 89.80 FMDD Face 86.21 87.27 86.17 86.50 86.17 Mask 89.99 90.11 90.04 90.21 89.99 mAP 88.10 88.69 88.10 88.35 88.08 表 2 不同压缩比实验结果
Table 2. Experimental results under different compression ratios
% 数据集 类别 压缩比 10 12 14 16 18 AIZOO Face 90.31 90.39 90.12 90.32 90.41 Mask 89.79 90.08 90.20 90.37 89.87 mAP 90.05 90.23 90.16 90.35 90.14 FMDD Face 86.98 84.89 86.26 87.27 86.30 Mask 89.90 89.68 90.25 90.11 89.86 mAP 88.44 87.29 88.26 88.69 88.08 表 3 WSPP-Net不同多尺度窗口大小实验结果
Table 3. Experimental results under different window sizes in WSPP-Net
% 数据集 类别 窗口大小 S1 S2 S3 S4 AIZOO Face 90.08 90.32 90.32 90.38 Mask 90.31 90.37 90.13 90.01 mAP 90.20 90.35 90.22 90.19 FMDD Face 86.51 87.27 86.56 86.45 Mask 89.76 90.11 89.60 89.99 mAP 88.14 88.69 88.08 88.22 表 4 不同检测方法的性能
Table 4. Performance of different methods
% 数据集 类别 模型 1 模型 2 模型 3 模型 4 MSAF R-CNN AIZOO Face 87.32 90.42 89.94 90.19 90.32 Mask 78.15 89.84 89.71 89.99 90.37 mAP 82.73 90.13 89.82 90.09 90.35 FMDD Face 86.01 86.41 84.44 85.05 87.27 Mask 77.95 90.01 89.94 90.10 90.11 mAP 81.98 88.21 87.19 87.58 88.69 表 5 消融实验结果
Table 5. Ablation experimental results of feature removal and fusion
% 数据集 类别 模型 5 模型 6 模型 7 MSAF R-CNN AIZOO Face 90.43 89.92 90.40 90.32 Mask 90.05 90.03 90.00 90.37 mAP 90.24 89.97 90.20 90.35 FMDD Face 85.13 86.01 86.23 87.27 Mask 89.93 90.00 89.98 90.11 mAP 87.53 88.01 88.10 88.69 -
VIOLA P, JONES M. Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. CVPR 2001. Kauai: IEEE, 2001: I.511-I.518. LIENHART R, MAYDT J. An extended set of Haar-like features for rapid object detection[C]//Proceedings of International Conference on Image Processing. New York: IEEE, 2002: I.900-I.903. 胡丽乔,仇润鹤. 一种自适应加权HOG特征的人脸识别算法[J]. 计算机工程与应用,2017,53(3): 164-168. doi: 10.3778/j.issn.1002-8331.1506-0183HU Liqiao, QIU Runhe. Face recognition based on adaptively weighted HOG[J]. Computer Engineering and Applications, 2017, 53(3): 164-168. doi: 10.3778/j.issn.1002-8331.1506-0183 张路达,邓超. 多尺度融合的YOLOv3人群口罩佩戴检测方法[J]. 计算机工程与应用,2021,57(16): 283-290.ZHANG Luda, DENG Chao. Multi-scale fusion of YOLOv3 crowd mask wearing detection method[J]. Computer Engineering and Applications, 2021, 57(16): 283-290. 魏丽,王洁,姜昕言,等. 遮挡条件下的人脸检测与遮挡物属性判识[J]. 计算机仿真,2020,37(9): 441-445,450. doi: 10.3969/j.issn.1006-9348.2020.09.093WEI Li, WANG Jie, JIANG Xinyan, et al. Face detection and obstacle attribute identification under occlusion[J]. Computer Simulation, 2020, 37(9): 441-445,450. doi: 10.3969/j.issn.1006-9348.2020.09.093 薛均晓,程君进,张其斌,等. 改进轻量级卷积神经网络的复杂场景口罩佩戴检测方法[J]. 计算机辅助设计与图形学学报,2021,33(7): 1045-1054.XUE Junxiao, CHENG Junjin, ZHANG Qibin, et al. Improved efficient convolutional neural network for complex scene mask-wearing detection[J]. Journal of Computer-Aided Design & Computer Graphics, 2021, 33(7): 1045-1054. LIU W, ANGUELOV D, ERHAN D, et al. SSD: single shot MultiBox detector[M]//Computer Vision – ECCV 2016. Cham: Springer International Publishing, 2016: 21-37. 迟万达,王士奇,张潇,等. 基于轻量化SSD的人脸检测模型设计[J]. 计算机与网络,2021,47(5): 69-73. doi: 10.3969/j.issn.1008-1739.2021.05.055CHI Wanda, WANG Shiqi, ZHANG Xiao, et al. Design on face detection model based on lightweight SSD[J]. Computer & Network, 2021, 47(5): 69-73. doi: 10.3969/j.issn.1008-1739.2021.05.055 GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition. Columbus: IEEE, 2014: 580-587. GIRSHICK R. Fast R-CNN[C]//2015 IEEE International Conference on Computer Vision (ICCV). Santiago: IEEE, 2015: 1440-1448. REN S Q, HE K M, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149. doi: 10.1109/TPAMI.2016.2577031 GAO S H, CHENG M M, ZHAO K, et al. Res2Net:a new multi-scale backbone architecture[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021, 43(2): 652-662. doi: 10.1109/TPAMI.2019.2938758 BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[EB/OL]. (2014-09-01)[2020-12-20]. https://www.researchgate.net/publication/265252627_Neural_Machine_Translation_by_Jointly_Learning_to_Align_and_Translate. ZHU Y S, ZHAO C Y, GUO H Y, et al. Attention coupleNet:fully convolutional attention coupling network for object detection[J]. IEEE Transactions on Image Processing, 2019, 28(1): 113-126. doi: 10.1109/TIP.2018.2865280 ZHANG J F, NIU L, ZHANG L Q. Person re-identification with reinforced attribute attention selection[J]. IEEE Transactions on Image Processing, 2021, 30: 603-616. doi: 10.1109/TIP.2020.3036762 HE L, CHAN J C W, WANG Z M. Automatic depression recognition using CNN with attention mechanism from videos[J]. Neurocomputing, 2021, 422: 165-175. doi: 10.1016/j.neucom.2020.10.015 HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 770-778. MUDUMBI T, BIAN N Z, ZHANG Y Y, et al. An approach combined the faster RCNN and mobilenet for logo detection[J]. Journal of Physics:Conference Series, 2019, 1284: 012072.1-012072.8. SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition[C]//3rd International Conference on Learning Representations. San Diego: [s.n.], 2015: 1-14. SZEGEDY C, LIU W, JIA Y Q, et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Boston: IEEE, 2015: 1-9. HU J, SHEN L, SUN G. Squeeze-and-excitation networks[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. Salt Lake City: IEEE, 2018: 7132-7141. WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[M]//Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 3-19. XI O Y, KANG G, PAN Z. Spatial pyramid pooling mechanism in 3D convolutional network for sentence-level classification[J]. IEEE/ACM Transactions on Audio,Speech,and Language Processing, 2018, 26(11): 2167-2179. doi: 10.1109/TASLP.2018.2852502 YANG R, ZHANG Y, ZHAO P F, et al. MSPPF-nets: a deep learning architecture for remote sensing image classification[C]//IGARSS 2019 - 2019 IEEE International Geoscience and Remote Sensing Symposium. Yokohama: IEEE, 2019: 3045-3048. WANG H J, SHI Y Y, YUE Y J, et al. Study on freshwater fish image recognition integrating SPP and DenseNet network[C]//2020 IEEE International Conference on Mechatronics and Automation (ICMA). Beijing: IEEE, 2020: 564-569. WANG T, YUAN L, ZHANG X, et al. Distilling object detectors with fine-grained feature imitation[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Long Beach: IEEE, 2019: 4928-4937. YANG S, LUO P, LOY C C, et al. WIDER FACE: a face detection benchmark[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas: IEEE, 2016: 5525-5533. GE S M, LI J, YE Q T, et al. Detecting masked faces in the wild with LLE-CNNs[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu: IEEE, 2017: 426-434. LIN T Y, GOYAL P, GIRSHICK R, et al. Focal loss for dense object detection[C]//2017 IEEE International Conference on Computer Vision (ICCV). Venice: IEEE, 2017: 2999-3007. 期刊类型引用(3)
1. 邓文豪. 城市轨道交通线路级车辆能馈状态仿真研究. 现代城市轨道交通. 2024(11): 26-31 . 百度学术
2. 刘继宗,张祖涛,王浩,孔苓吉,伊敏熠,朱忠尹. 城轨交通制动能量利用技术研究现状与展望. 西南交通大学学报. 2024(06): 1322-1345 . 本站查看
3. 刘炜,张戬,马庆安,曾佳欣,杨乾锋. 含地面再生制动能量利用装置的供电设计和节能指标评估. 都市快轨交通. 2021(06): 32-38 . 百度学术
其他类型引用(3)
-