中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
信息融合

面向高价值目标识别的SKConv-MobileNetV3改进*

  • 郑鹏 ,
  • 程云 ,
  • 刘波 ,
  • 叶晨浩 ,
  • 王石杰
展开
  • 国防科技大学信息通信学院, 湖北 武汉 430000
程云(1987—),男,副教授,博士。

郑鹏(2000—),男,硕士,研究方向的态势构建。

收稿日期: 2024-11-14

  修回日期: 2024-11-26

  网络出版日期: 2025-09-25

基金资助

*国家社科基金重点项目(2023-SKJJ-B-107)

SKConv-MobileNetV3 improvements for high-value target recognition

  • ZHENG Peng ,
  • CHNENG Yun ,
  • LIU Bo ,
  • YE Chenhao ,
  • WANG Shijie
Expand
  • College of Information and Communication, National University of Defense Technology, Wuhan 430000, China

Received date: 2024-11-14

  Revised date: 2024-11-26

  Online published: 2025-09-25

摘要

高价值目标识别通常要求较高的时效性和准确度,传统深度卷积神经网络参数量庞大导致大量应用场景受限。因此,提出了基于SKConv-MobileNetV3的高价值目标识别方法,通过在MobileNetV3卷积层的输出特征图加权融合SKConv卷积核的识别结果,利用注意力机制来选择最相关的图片内容进行特征提取,在参数数量不变的前提下,提高了SKConv-MobileNetV3模型对特征信息的提取能力,同时提升了学习效率和识别准确率。基于以上算法改进和优化,在NWPU-RESISC45数据集中选取了具有强相关性的7种高价值目标进行了测试,结果表明,与MobileNetV2相比准确率提升了7.01%,与MobileNetV3相比准确率提升了4.08%,能够较好地提升混合战场环境中的高价值目标识别精度。

本文引用格式

郑鹏 , 程云 , 刘波 , 叶晨浩 , 王石杰 . 面向高价值目标识别的SKConv-MobileNetV3改进*[J]. 指挥控制与仿真, 2025 , 47(5) : 42 -48 . DOI: 10.3969/j.issn.1673-3819.2025.05.006

Abstract

High-value target recognition usually requires high timeliness and accuracy, and the large number of parameters of traditional deep convolutional neural networks leads to a large number of application scenarios being limited. A high-value target recognition method based on SKConv-MobileNetV3 is proposed, by fusing the recognition results of SKConv convolutional kernel with the weighted output feature maps of MobileNetV3 convolutional layer, and using the attention mechanism to select the most relevant image content for feature extraction, we can improve the feature information extraction capability of the SKCon-MobileNetV3 model while improving learning efficiency, under the condition that the number of parameters remains unchanged, MobileNetV3 model’s ability to extract feature information, while improving the learning efficiency and recognition accuracy. Through the above algorithm improvement and optimization, seven high-value targets with strong correlation are selected in the NWPU-RESISC45 dataset and tested, and the results show that the accuracy is improved by 7.01% compared with MobileNetV2 and 4.08% compared with MobileNetV3, which is able to better improve the recognition accuracy of high-value target recognition accuracy.

信息化战争条件下,卫星、雷达、无人机侦察平台、精确制导弹药等的应用,使得战场环境日益复杂多变,作战形势发生深刻变化。如何利用光学成像或其他成像设备捕捉图像,并从中解读、处理和提取预期目标的类型、方位、速度等信息,并充分利用这些相关信息进行指挥决策和精确打击日益成为军事斗争的关键性问题。针对这一问题,已有学者进行了相关研究。
在非军事目标识别中,Jia等[1]受EfficientNet思想的启发,使用缩放系数对MobileNetV3网络结构作为一个整体在宽度和高度方面进行缩放。Zhang等[2]采用多尺度信息融合(MSIF)-MobileNetV3,来分析鱼类的摄食行为,用MSIF替代挤压-激发(SE)模块,利用空间信息集成和多尺度特征融合提高模型对摄食图像中鱼群行为的关注权重。Shahi等[3]利用预先训练的MobileNetV2模型和注意模块提出了一个轻量级深度学习模型。
在军事高价值目标识别中,张焕[4]基于卷积神经网络提出了改进激活函数的组合卷积模块,并与VGGNet(标准卷积)、GoogleNet(Inception模块)、Mobilenet(深度可分离卷积)、Res Net(残差模块)进行了对比,证明了改进方法的有效性。吴迪[5]对红外弱小目标识别问题开展基于多模态特征的红外弱小目标智能化识别技术研究,用于解决全时段、远距离目标精确识别的问题,为武器系统提供准确目标识别情报,为解决高价值目标识别中小样本和数据集不足的问题提出了一种思路。
传统的基于计算机视觉的方法首先提取低层特征,然后使用机器学习方法进行图像分类[6];基于深度学习的方法则有效地提取特征并执行端到端图像分类。在传统的计算机视觉和图像处理方法中,图像特征(例如装备特征、颜色和轮廓)被用作高价值目标分类的输入。以上方法对高价值目标识别做了大量工作,但基本采用整体图像识别,图像特征提取的过程采用卷积核对全局进行卷积,拉高了模型算力消耗和训练时间成本。可以看出,MobileNetV3已经具备了高效性、准确性和可拓展性等优点,相较于MobileNetV2加入了SE机制,已有了较大进步;但是由于网络规模较小,特征表示能力相对较弱,并且迁移性和普适性不佳[7],在特定领域的数据集上使用时,可能会出现性能下降的情况。
针对上述问题,本文基于卷积神经网络中的MobileNetV3模型,利用SKConv卷积核,能够高效地提取到目标特征,自适应特征大小改变卷积核大小,有效降低了算力和时间成本开销,并且能够利用SKConv卷积核提高MobileNetV3的特征抓取效率,弥补其在网络规模方面的不足以及改善在不同数据集上的学习效率,提高了模型的迁移性和普适性。

1 模型结构

1.1 模型改进

为克服MobileNetV3的不足和缺陷并提高模型识别准确率,本文提出通过加入selective kernel convolution(SKConv)自适应选择性卷积模块来帮助MobileNetV3能够更好地识别和提取图片中的关键信息,提升模型的学习效率和识别准确率。

1.1.1 自适应选择性卷积

SKConv是一种卷积神经网络中的卷积操作,它可以自适应地选择卷积核的大小和形状,从而提高网络的准确性和效率[8]
传统的卷积操作使用固定大小和形状的卷积核来进行特征提取,这种方法可能会忽略一些重要的特征信息或者提取到一些无关紧要的特征[9]。为了解决这个问题,本文引入了自适应选择性卷积机制,即在卷积层中引入选择性卷积核后,使用注意力机制来选择最相关的卷积核进行特征提取。
选择性核卷积[8]是通过 Split、Fuse 和 Select 3个操作实现的,其使神经元能够自适应地调整其感受野大小。Split 操作生成具有不同核大小的多个路径;Fuse 操作通过元素求和融合多个路径的信息,并使用全局平均池化生成通道统计信息,通过全连接层创建紧凑特征 z 以指导精确和自适应的选择;Select 操作使用 softmax 注意力根据紧凑特征描述符z自适应地选择不同空间尺度的信息。
SKConv 主要由重复的瓶颈块组成[8],称为SK单元,每个SK单元由1×1卷积、SK 卷积和 1×1 卷积序列组成。SKConv 从 ResNeXt 出发,将原始瓶颈块中的所有大核卷积替换为 SK 卷积,使网络能够以自适应的方式选择合适的感受野大小。目前,主要的三种网络架构为SKConv-50 ({3, 4, 6, 3} 个 SK 单元)、SKConv-26({2, 2, 2, 2}个SK单元)和SKConv-101({3, 4, 23, 3} 个 SK 单元)。
SK卷积中的3个重要超参数是路径数量M、组号G和压缩比r。路径数量 M决定了聚合的不同内核的选择数量,即分支数量,决定模型能够获取的多尺度信息的丰富程度。组号G控制每个路径的基数,在分组卷积中,决定了参数和计算成本的分配。压缩比r主要用于控制 Fuse 操作中全连接层的参数数量,从而影响紧凑特征z的维度。通过调整压缩比的值,可以在一定程度上控制模型的复杂度和计算量。

1.1.2 MobileNetV3和SKConv的融合

为了解决MobileNetV3中深度可分离卷积存在的单一卷积核的局限性,每个卷积核只负责一个输入通道,这可能导致对不同通道之间的关系捕捉不足,导致模型表达能力受限。本文采用并联加权求和的方式,将深度可分离卷积和SKConv的结果特征图融合。即同时输入相同原始图片,两个卷积部分分别进行特征提取,之后将两个结果特征矩阵进行加权融合。其过程如下:
(1)Split 操作
输入特征图为 X R H × W × C,其中,H、W分别表示特征图的高度和宽度,C表示通道数[10]
通过两个不同的变换生成两个分支的特征图:
F 1 U 1 R H × W × C
F 2 U 2 R H × W × C
在默认条件下,这两个变换的卷积核大小分别为3 和5。需要注意的是,F1F2都由深度卷积、Batch Normalization 和 ReLU 函数依次组成。为了进一步提高效率,传统5×5 卷积被替换为dilation size为 2 的 3×3 扩张卷积。具体步骤如下:
对于第一个分支,使用卷积核大小为K1×K1 的卷积操作,其中,C1 表示第一个分支经过卷积操作后的通道数:
F 1 U 1 R H × W × C 1
这里的卷积操作(对于输入特征图上的位置(i,j))可以表示为
$U_{i, j, k}=\sum_{m=1}^{K_{1}} \sum_{n=1}^{K_{1}} \sum_{c=1}^{C} W_{1, k, c, m, n} \cdot X_{i+m-1, j+n-1, c}$
其中, W 1 , k , c , m , n是第一个分支卷积核的权重参数。
类似地,对于第二个分支,使用卷积核大小为 K 2 × K 2的卷积操作与第一个分支一致,但是卷积核大小 K 2、分支经过卷积操作后的通道数 C 2 分支卷积核在对应位置的权重参数 W 2 , k , c , m , n要对应第二个分支中的参数。
(2)Fuse 操作
首先,将两个分支的特征图进行融合:
U = U 1 + U 2
U R H × W × ( C 1 + C 2 )
其中,U表示融合两个分支后的特征图,其通道数为两个分支通道数之和[11]
其次,进行全局平均池化生成通道统计信息,即对于U的每个通道UC 进行全局平均池化:
$s_{c}=F_{g p}\left(U_{c}\right)=\frac{1}{H \times W} \sum_{i=1}^{H} \sum_{j=1}^{W} U_{c}(i, j)$
s R ( C 1 + C 2 )
通过全连接层创建紧凑特征:
z = F f c ( s ) = δ β ( W s )
其中 , δ是ReLU 函数,β表示 Batch Normaliztion,用于归一化处理, W R d × ( C 1 + C 1 ),d通过减少压缩比例r控制:
d = m a x C 1 + C 2 r , L
其中,Ld的最小值。
(3)Select 操作
使用 softmax 注意力根据紧凑特征描述符z在通道维度上自适应地选择不同空间尺度的信息[12],对通道维度上的数字应用 softmax 操作, 计算注意力权重 a c b c :
a c = e A c z e A c z + e B c z
b c = e B c z e A c z + e B c z
其中, ac,bc 分别表示两个分支的 soft 注意力向量,A、B表示随机初始化生成的参数矩阵,并且在后续训练过程中根据反向传播算法计算损失函数对各个参数的梯度进行不断更新矩阵参数。其中:
A , B R ( C 1 + C 2 ) × d
最终的特征图通过注意力权重对不同核的特征图进行聚合得到:
V c = a c · U 1 c + b c · U 2 c
a c + b c = 1,可知:
V R ( C 1 + C 2 ) × d
输出特征图的尺寸与输入特征图的尺寸相同(高度为H,宽度为W),但通道数取决于Split操作中两个分支输出通道数之和 ( C 1 + C 2 )
(4)加权融合
假设通过SKConv生成的特征图为 V S K R H × W × C S K,通过深度可分离卷积生成的特征图为 V D W R H × W × C D W,本文融合之后的特征图通道数C设为与深度可分离卷积生成特征图 C D W一致的通道数,即 C = C D W 加权融合时, αβ分别对应 V D W V S K的权重,且 α + β = 1 加权融合之后的特征图 V C O R H × W × C中的每个位置(i,j,k),其中,   i 1,2 , 3 , , H , j 1,2 , 3 , , W , k 1,2 , 3 , , C,有
V C O i , j , k = α · V D W i , j , k + β · V C K i , j , k
得到的Vco可直接进入后续的MobileNetV3的运算中。同时可知,输出的融合了特征图不同尺度的信息通过注意力机制自适应地调整了不同分支特征的贡献,使得模型能够更关注对当前任务更有价值的特征信息,从而提高模型的性能和泛化能力。

1.2 模型对比

本文提出的基于SKConv的MobileNetV3模型与传统的深度神经网络相比,MobileNetV3模型增加了倒残差模块和自适应卷积核,通过倒置了传统的残差模块的结构来实现更高的效率。一个典型的倒残差模块[7]由以下几个层组成:逐通道扩展、深度可分离卷积、线性瓶颈、恒等映射。通过使用倒残差模块,MobileNetV3在保持高精度的同时,实现了更高的模型效率。
同时,本文采用的自适应卷积核通过自适应选择卷积核的大小,使得在进行图像识别时,让计算机能有“视觉”处理的能力,并且SKConv的计算量增加不大,只是轻微地增加了参数和计算成本,但是提高了模型的运算速度和准确性。与MobileNetV3相比,SKConv的增加让模型在识别图像时更加高效集约,并且能提高准确率。在此基础上,模型可以更加灵活地处理不同位置的信息,尤其是对于需要关注细节或特定区域的任务,如目标的精确定位或图像分割等,其中,SKConv模块如图1所示。
图1 SKConv模块运行图

Fig.1 SKConv module operation diagram

通过引入SKConv模块,本模型在保留倒残差高精度的同时,提高了模型在特征提取步骤的针对性、适应性和准确性,在高价值目标的识别上,能够更好地适应和减小复杂多变环境对特征提取的不利影响,提高模型的识别准确率和运算效率。

2 实验设计

2.1 实验环境

本文实验软、硬件配置如表1所示。所有对比模型均在同一个平台上运行。SKConv的路径数量M设置为2,组数量G为32,压缩比例r为16。
表1 实验环境配置表

Tab.1 Experimental environment configuration table

配置项 描述
CPU 13th Gen Intel(R)
Core(TM) i7-13650HX
Memory DDR4 16 GB
GPU NVIDIA GeForce RTX
4060 Laptop GPU
Pycharm Pytorch 2.1.1 python3.6
CUDA12.1

2.2 实验数据集

NWPU-RESISC45数据集[13]是由西北工业大学(NWPU)创建的一个公开可用的遥感图像场景分类(RESISC)基准。该数据集包含 31 500 张图像,涵盖45个场景类别,每个类别包含 700 张图像。该数据集主要包含了以下场景[13]。类别包括飞机、机场、船舶、港口、铁路、跑道、储油罐、桥梁、矮林、密集住宅区、高速公路、工业区、岛屿、热电站和湿地。
本文选择了飞机、机场、船舶、港口、铁路、跑道、储油罐7种类型,作为本文的实验数据。

2.3 模型训练与测试

本文模型在NWPU-RESISC45数据集上进行训练和测试,训练过程中均使用随机初始化权重值和偏置,批量大小为32,迭代次数为280次。初始学习率为0.02,采用梯度下降优化器,动量因子为0.8。训练中使用NWPU-RESISC45训练集(4 200幅)进行训练,公共测试集(700幅)作为验证集,让模型自行调整参数,最后在私有测试集(700幅)上进行测试。本文图像识别模型在训练数据集上进行图片数据训练前,对样本进行了随机排序等预处理。
本图像识别模型在NWPU-RESISC45数据集上的混淆矩阵如图2所示。本文图像识别模型在NWPU-RESISC45数据集上达到83.57%的准确率且模型的权重文件只有16.2 MB。其中,飞机(airplane87%)、机场(airport86%)、船舶(ship90%)、港口(harbor87%)相比于其他目标,更具有辨识度,所以识别率比较高。
图2 NWPU-RESISC45数据集上的混淆矩阵

Fig.2 Confusion matrix on the NWPU-RESISC45 dataset

铁路(railway76%)、跑道(runway79%)、储油罐(storage_tank80%)因为所处环境必然干扰因素较多,影响模型对此类目标的识别学习,容易造成误判,导致准确率相对较低。

3 实验结果与分析

SKConv在split步骤中将原图分为卷积核大小不同的两个子图,在后续运算中,通过紧凑特征z计算得到的计算注意力权重 a c b c来控制在两个特征子图之间的取舍,实现对卷积核的大小调整,进而实现自适应卷积。

3.1 SKConv可视化

特征提取过程中的SKConv机制经过可视化后,我们可以更加直观地理解SKConv机制在其中发挥的作用。我们选取了测试集中的ship_640、ship_623、airplane_625、island_344 4张照片作为样本,展示SKConv机制热力图的可视化情况。
由结果可知,SKConv机制在对图片核心部分信息提取中较好地缩小了范围,提高了针对性和准确性,使得模型在进行目标识别时更加聚焦核心,省去了不必要的计算量和运算成本,较好地节约算力,提高了运算速度和运算效率。
图3可以看出,加入了SKconv模块后,模型对图片的特征提取更加集中于有目标的部分,而无关像素则被赋予更低权重,减小了非必要特征提取,对于算力消耗和时间成本都有一定程度的改善。因此,SKconv机制的采用使得针对图像中关键信息和目标的识别结果和效率均可得到提升。
图3 SKConv可视化

Fig.3 SKConv Visualisation

3.2 结果对比及分析

为了便于分析模型改进效果,本节将与目前主流图像识别模型进行对比。具体数据如表2数据所示,在NWPU-RESISC45数据集上,本文的图像识别模型准确率提高到83.57%,与传统深度神经网络模型VGG19相比,权重文件大小下降了75.2 MB,下降率为83.97%,同时,在NWPU-RESISC45数据集上准确率提高了13.27%,运行效率也得到显著提高。与MobileNetV2相比,准确率提高了7.01%,与改进前的MobileNetV3相比,准确率提高了4.08%。因此,本文图像识别模型与传统图像识别模型相比在准确率方面有明显提升。
表2 不同模型在数据集上的图像识别准确率

Tab.2 Image recognition accuracy of different models on the dataset

模型 权重文件/MB 准确率 用时/ms
VGG19[14] 89.56 70.3 2963
MobileNetV2[15] 8.74 76.56 1560
MobileNetV3[2] 16.2 79.49 1236
Ours 14.36 83.57 986
为了体现模型在识别效率上的差异,本文随机选取了各个类别的450张图片作为效率测试样本,检测训练好的各模型在相同数量样本的识别中的用时情况。各模型用时如表2所示。
此外,在使用图像识别模型进行目标识别时,人们还需要通过其他指标来综合衡量模型特性,比如,乘加运算次数和模型复杂度。乘加运算次数(MAdds)是衡量神经网络计算复杂度的一个重要指标。MAdds的值越高,通常意味着模型的计算复杂度越高,需要更多的计算资源和时间来进行推理。通过比较不同模型的 MAdds和准确率的对应关系,我们可以评估模型在计算效率和准确性之间的权衡关系。本实验中,不同模型的MAdds和准确率之间的权衡如图4所示。
图4 乘加运算次数与准确率

Fig.4 The trade-off between MAdds and accuracy

模型的复杂度会通过参数量的大小、计算复杂度、网络深度和非线性操作的复杂度来综合呈现,为了能够综合全面地呈现模型复杂度对目标识别准确率的影响,我们采用模型运算延迟时间(latency,单位ms)作为模型复杂度的综合值,通过模型复杂度与准确率的变更情况来对比不同模型的性能情况。其与目标识别准确率的关系如图5所示。
图5 延迟时间与准确率

Fig.5 The trade-off between latency and accuracy

图5中可以发现,当延迟时间小于50 ms时,本模型的准确率低于MobileNetV3与MobileNetV2。这是由于本文用来作为对照实验的两个模型在训练中提前导入了基础权重文件mobilenet_v3_large.pth和mobilenet_v2.pth,所以,这两个模型在训练初期体现了一定的优势。而本文的SKConv-MobileNetV3为了呈现SKConv模块的必要性和有效性,在训练中并没有提前导入权重文件,并且模型在延迟时间超过50 ms、积累了一定的模型复杂度后,准确率便快速上升,体现了本模型具有较好的学习率与发展潜力。
通过在NWPU-RESISC45数据集上与目前主流深度卷积神经网络以及轻量级图像识别模型对比可知,本文图像识别模型在降低权重文件大小的同时,提高了准确率和训练效率,综合性能高于目前主流轻量级网络。本文添加了SKConv模块,使得MobileNetV3的注意力机制运行更加准确高效,减弱了无效信息的提取,加强了对有效特征信息的提取能力。

4 结束语

本文立足于高价值目标识别任务,更加贴近于未来战场作战需要。针对目前现有的图像识别模型存在军事应用场景受限、军事运用模型不成熟的问题,通过改进现有的MobileNetV3模型,在特征提取部分加入SKConv模块,提出了SKConv-MobileNetV3模型,提高了识别准确性,减少了计算成本,改善了泛化能力。相比传统的CNN模型,MobileNetV3在设计上更加轻量化,展现了高性能、低计算复杂度和可扩展性的优势。这使得它成为在资源受限环境下进行图像识别的理想选择,并在许多实际应用中取得了良好的效果。综上,本文研究改进的模型能够出色地识别高价值目标,为深度学习模型移植到军事运用场景中提供了思路。
[1]
JIA L Q, WANG Y W, ZANG Y, et al. MobileNetV3 with CBAM for bamboo stick counting[J]. IEEE Access, 2022(10): 5 3 963-53 971.

[2]
ZHANG Y Q, XU C, DU R X, et al. MSIF-MobileNetV3: an improved MobileNetV3 based on multi-scale information fusion for fish feeding behavior analysis[J]. Aquacultural Engineering, 2023(102): 102 338.

[3]
SHAHI T B, SITAULA C, NEUPANE A, et al. Fruit classification using attention-based MobileNetV2 for industrial applications[J]. PLoS One, 2022, 17(2): e0 264 586.

[4]
张焕. 基于图像处理与深度学习的典型军事目标识别[D]. 南京: 南京理工大学, 2021.

ZHANG H. Typical military target recognition based on image processing and deep learning[D]. Nanjing: Nanjing University of Science and Technology, 2021.

[5]
吴迪. 基于多模态特征的红外弱小目标识别技术研究[D]. 长春: 中国科学院大学(中国科学院长春光学精密机械与物理研究所), 2023.

WU D. Research on infrared weak target recognition technology based on multimodal features[D]. Changchun: University of Chinese Academy of Sciences (Changchun Institute of Optical Precision Machinery and Physics, Chinese Academy of Sciences), 2023.

[6]
严春满, 张翔, 王青朋. 基于改进MobileNetV2的人脸表情识别[J]. 计算机工程与科学, 2023, 45(6): 1 071-1 078.

YAN C M, ZHANG X, WANG Q P. Facial expression recognition based on improved MobileNetV2[J]. Computer Engineering & Science, 2023, 45(6): 1 071-1 078.

[7]
廖慕钦, 周永军, 汤小红, 等. 基于SSD-MobilenetV3模型的车辆检测[J]. 传感器与微系统, 2022, 41(6): 142-145.

LIAO M Q, ZHOU Y J, TANG X H, et al. Vehicle detection based on SSD-MobilenetV3 model[J]. Transducer and Microsystem Technologies, 2022, 41(6): 142-145.

[8]
LI Z Y, HU F, WANG C L, et al. Selective kernel networks for weakly supervised relation extraction[J]. CAAI Transactions on Intelligence Technology, 2021, 6(2): 224-234.

[9]
CHU J, CAI J P, LI L, et al. Bilinear feature fusion convolutional neural network for distributed tactile pressure recognition and understanding via visualization[J]. IEEE Transactions on Industrial Electronics, 2022, 69(6): 6 391-6 400.

[10]
JIA C K, LONG M, LIU Y C. Enhanced face morphing attack detection using error-level analysis and efficientselective kernel network[J]. Computers & Security, 2024(137): 103 640.

[11]
ZHANG Z L, GAO H W, WU X G. Detection of pedestrians and vehicles in autonomous driving with selective kernel networks[J]. Cognitive Computation and Systems, 2023, 5(1): 64-70.

[12]
YU X G, ALQANESS M A A. ASK-HAR: attention-based multi-core selective kernel convolution network for human activity recognition[J]. Measurement, 2025(242): 115 981.

[13]
CHENG G, HAN J W, LU X Q. Remote sensing image scene classification: benchmark and state of the art[J]. Proceedings of the IEEE, 2017, 105(10): 1 865-1 883.

[14]
BINBUSAYYIS A. Hybrid VGG19 and 2D-CNN for intrusion detection in the FOG-cloud environment[J]. Expert Systems with Applications, 2024(238): 121 758.

[15]
GAO M Q, LI J J, ZHOU D Z, et al. Fall detection based on OpenPose and MobileNetV2 network[J]. IET Image Processing, 2023, 17(3): 722-732.

文章导航

/