中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
智能无人作战

基于无人机载荷的运动目标检测方法*

  • 管东林 1 ,
  • 张建廷 1, ,
  • 王一 1 ,
  • 谭顺成 2
展开
  • 1 中国人民解放军91977部队, 北京 100036
  • 2 海军航空大学, 山东 烟台 264001
张建廷(1986—),男,博士,工程师。

管东林(1970—),男,硕士,高级工程师,研究方向为指挥信息系统。

Copy editor: 李楠

收稿日期: 2024-09-12

  修回日期: 2024-11-29

  网络出版日期: 2025-05-28

基金资助

*中国博士后科学基金(2021M693003)

国家自然科学基金(61671462)

Target detection methods based on UAV payloads

  • GUAN Donglin 1 ,
  • ZHANG Jianting 1, ,
  • WANG Yi 1 ,
  • TAN Shuncheng 2
Expand
  • 1 Unit 91977 of PLA, Beijing 100036, China
  • 2 Naval Aviation University, Yantai 264001, China

Received date: 2024-09-12

  Revised date: 2024-11-29

  Online published: 2025-05-28

摘要

当前无人智能在各领域广泛应用,无人自主感知监视相关技术正快速发展,为军事侦察和民用监控开辟了全新视野。从传感器应用的角度出发,综述了基于无人机载荷的运动目标检测领域的研究成果,并探讨了未来技术发展的趋势。首先,概述了无人机目标检测的通用方法;然后,重点介绍了无人机在红外、光学和视频合成孔径雷达(SAR)目标检测方面的进展,并揭示了相关技术的优势和局限性;最后,从发展跨模态目标检测技术、构建智能化检测系统以及提升超大模型能力等方面展望了未来的研究方向,以期为后续研究提供参考和指导。

本文引用格式

管东林 , 张建廷 , 王一 , 谭顺成 . 基于无人机载荷的运动目标检测方法*[J]. 指挥控制与仿真, 2025 , 47(3) : 1 -11 . DOI: 10.3969/j.issn.1673-3819.2025.03.001

Abstract

Currently, unmanned intelligence is widely used in various fields, and unmanned automatic perception and monitoring related technologies are rapidly developing, opening up a new perspective for military reconnaissance and civilian monitoring. Starting from the perspective of sensor application, this article presents the current research achievements of motion target detection based on unmanned aerial vehicle (UAV) payloads, and discusses the trends of future technological development. Firstly, a common method for UAVs target detection is outlined. Then, the progress of UAVs in infrared, optical, and video synthetic aperture radar (SAR) target detection is highlighted, and the advantages and limitations of related technologies were revealed. Finally, future research directions such as developing cross-modal object detection technology, constructing intelligent detection systems, and enhancing the capability of super large models and so on are discussed, which are expected to provide reference and guidance for subsequent research.

近年来,无人机(unmanned aerial vehicle, UAV)技术迅猛发展,搭载着高分辨率光学相机、红外热成像仪、合成孔径雷达(synthetic aperture radar, SAR)等先进传感器,为采集目标区域数据提供了强大支持。无人机以其出色的灵活性、机动性以及相对较低的成本,在军事侦察[1]、农业管理[2]、搜索救援[3]、交通监控[4-5]等多个领域发挥着重要作用。无人机所获取的视频产品极大地丰富了我们对感兴趣区域及目标在空间和时间上的信息,使得基于无人机的目标检测技术成为学术界研究的热点。
无人机装备了多种传感器,各自对应不同的目标特性和挑战。因此,目标检测策略必须融合传感器特性、数据处理、目标属性和环境条件,以适应多变的任务需求和挑战。传统框架下,无人机通过传感器收集数据,并通过一系列步骤如预处理、特征提取、目标检测,实现实时监控。随着AI和机器学习技术的发展,这些方法正变得更加自动化和智能化。本文综述了基于无人机的检测算法,从传统方法和深度学习角度,重点概述了无人机利用红外、光学和视频SAR影像的目标检测方面的技术进展和关键成果。

1 基于无人机载荷的目标检测方法

1.1 目标检测方法概述

目前基于无人机载荷的目标检测方法可以分为基于人为设计特征的方法和基于数据驱动的方法。常见的手工制作特征包括几何特征、纹理特征、矩特征、扫描统计特征、尺度不变特征和方向梯度直方图(histogram of oriented gradients, HOG)特征等。经典的基于人为设计特征的目标检测算法有基于空域、频域、人眼视觉机制、低秩稀疏分解(low-rank plus sparse decomposition, LRSD)以及面元模型的方法,这些算法使用一种或几种人为设计的特征来描述目标,原理直观,但由于人为设计特征本身的局限性,提取的图像特征相对单一,使得算法的可迁移性较弱、泛化能力较差。
基于数据驱动的方法通过大量的训练数据中自主学习目标特征表示,最具代表性的就是基于深度学习的检测方法。近两年,已经有很多基于深度学习的无人机运动目标检测的综述:2023年,罗旭东等[6]综述了近十年无人机航拍影像目标检测与语义分割的深度学习方法,包括其发展历程、不同网络模型的方法分类及改进策略等;2024年,陈金林等[7]总结了YOLO(you only look once)系列算法的发展历程等,并梳理了无人机视角下目标检测YOLO系列算法的研究与应用成果;苑玉彬等[8]综述了基于深度学习的无人机航拍视频多目标检测与跟踪算法;吴一全等[9]综述了基于深度学习的无人机航拍图像小目标检测研究进展。基于深度学习的方法从特征图的处理过程角度可以分为两大类,分别是R-CNN(region-based convolutional neural network)系列为代表的基于候选框(region proposal)的两阶段目标检测算法[10]和以YOLO系列为代表的基于回归方法的单阶段目标检测算法[11]图1为基于无人机载荷的目标检测算法分类图。
图1 基于无人机载荷的目标检测算法

Fig.1 Target detection algorithm based on UAV payload

1.2 红外目标检测

无人机搭载的红外成像系统能捕捉目标的红外辐射并转化为热图像。相比可见光成像,它不受天气和光线影响,可在夜间或低能见度环境中工作,侦察到复杂隐蔽环境中不易发现的目标。红外目标的特性可以总结为以下3个关键特征:首先,目标尺寸通常非常小,有时甚至表现为点状目标。其次,目标的灰度值在局部邻域中往往较高,从而在背景中形成了明显的亮度对比。最后,在包含复杂背景和噪声的环境中,目标的信噪比通常较低。鉴于上述特性,利用无人机载荷在复杂动态场景中进行红外目标检测的主要难点包括:目标尺寸细小、结构信息和纹理特征较弱,检测难度增加;目标尺度变化较大,且容易受到背景中相似目标和杂波的干扰,进一步增加了检测的难度;此外,还必须考虑目标可能遭受的严重遮挡,热晕效应、大气衰减等复杂干扰因素,以及无人机搭载的硬件条件有限的现实因素等,这些都对红外目标的实时检测构成了重大挑战。因此,目前利用无人机载荷的红外图像数据进行目标检测的主要问题之一是如何在复杂背景下对多尺度微小红外目标进行检测。
针对该问题,学者们主要采用基于人为设计特征的算法和基于深度学习的算法,通过增强目标和抑制背景,提高对红外目标的检测性能。基于人为设计特征的红外目标检测方法有很多,例如基于空域处理的代表性方法有均值滤波器[12]、中值滤波器[13]、形态学滤波器(Top-hat)[14]等。这类方法通过计算原始图像与预测背景之间的差值来增强小目标,计算速度快、计算复杂度低,但需要较高的图像信噪比,且仅适用于简单且均匀的背景;基于频域处理的代表性方法有小波变换[15]、频域高阶统计量[16]、谱尺度空间[17]等,此类方法易受复杂动态背景噪事干扰;基于人眼视觉机制的代表性方法有LCM(local contrast measure)[18]、ILCM(improved local contrast measure)[19]、NLCM(novel local contrast method)[20]、MPCM(multiscale patch-based contrast measure)[21]、RLCM(relative local contrast measure)[22]等,这些方法的局限性在于,在某些背景突出的情况下,显著性图上的杂波和目标可能具有相似的特征且难以区分,从而降低了目标检测性能;基于低秩稀疏分解的代表性方法有基于矩阵的方法[23-24]、基于张量的单帧方法[25-26]及多帧方法[27]等,这类方法适用于几乎所有复杂、迅速变化的背景,但基于多帧的低秩稀疏分解方法有些耗时,不能充分挖掘红外序列图像的时空特征;基于面元模型的代表性方法有FODD(first-order directional derivative)[28]、SODD(second-order directional derivative)[29]、DECM(derivative entropy-based contrast measure)[30]等,这类方法在一定程度上会受到目标形状、尺寸、边缘复杂性以及噪声等因素的影响,如FODD对噪声敏感且具有方向依赖性;SODD计算复杂度高且对边缘细节过度敏感;DECM存在熵估计不稳定以及对目标形状和尺寸适应性差等问题,从而影响其在复杂环境下对目标的准确检测能力。表1对基于人为设计特征的无人机载荷红外目标检测方法算法进行了分析总结。
表1 基于人为设计特征的无人机载荷红外目标检测方法总结

Tab.1 Summary of infrared target detection algorithm for UAV payloads

类别 代表性方法 文献 特点 局限性
均值滤波器 [12] 计算速度快,计算复杂度低 需要较高的图像信噪比,仅适用于简单且均匀的背景,复杂背景或干扰条件下性能差
基于空域处理 中值滤波器 [13]
形态学滤波器(Top-hat) [14]
小波变换 [15] 对复杂动态变化背景中的噪声敏感 目标快速移动或变形情况下算法适应性较差
基于频域处理 频域高阶统计量 [16]
谱尺度空间 [17]
基于人眼
视觉机制
LCM [18] 利用人眼视觉机制进行目标检测 背景突出时杂波和目标特征相似,难以区分,降低检测性能
ILCM [19]
NLCM [20]
MPCM [21]
RLCM [22]
基于低秩
稀疏分解
基于矩阵的方法 [23-24] 适用于各种复杂、迅速变化的背景,利用部分时空特征信息 多帧方法耗时,时空特征信息利用不充分
基于张量的单帧方法 [25-26]
基于张量的多帧方法 [27]
FODD [28] 对于某些特定类型的图像背景具有较好的检测效果 复杂环境下算法适应性低
基于面元模型 SODD [29]
DECM [30]
近些年,国内外的研究主要采用基于深度学习的方法实现对无人机红外多尺度微小目标的检测。深度学习虽然可以提高目标检测性能,但它们面临红外小目标缺乏形状特征和显著的纹理且目标尺度变化大的挑战,这使得特征学习很困难,进而导致经典的深度学习检测方法(如Faster RCNN、YOLO系列)在红外弱小目标检测中效果不佳,因此,学者们以基于深度学习的方法为主体,配合各类增强与改进模块,针对性解决问题,提升性能以适应该任务。例如文献[31]将小目标视作一种特殊的噪声,采用生成对抗网络模型自动学习红外小目标的独特分布特征后将目标从输入图像中分离。文献[32]提出了ALCNet结合模型驱动和数据驱动方法,先通过骨干网提取高级语义信息,再用传统局部对比度方法编码,并通过自下而上的注意力机制将底层特征完全融合到高层特征中,既解决了模型驱动方法的参数敏感问题,也缓解了数据驱动方法的最小固有特征问题。梁晓等[33]提出了基于YOLOv7的检测算法,该算法结合了通道和空间双重注意力机制,可以有效提高弱小目标的表征能力。文献[34]将红外小目标检测问题转化为残差图像重建问题,构造了一个扩张残差全卷积自编码器网络DRU-Net 来表征和重组残差图像中的多尺度特征信息,实现了对红外多尺度目标的检测。

1.3 光学目标检测

无人机搭载的光学成像系统通过捕捉目标物体发出或反射的光线生成高分辨率图像。在光照条件良好时,这一系统能够提供清晰的成像效果。但是,当遇到飞行高度变化、光照条件不稳定、背景复杂等情况时,目标(飞机、车辆、船舶等)的尺寸可能会显得较小,多目标密集排列、尺度变化较大、目标旋转或被其他物体遮挡等因素均可能增加光学目标检测的难度。因此,目前利用无人机载荷的光学图像数据进行目标检测的主要问题之一是如何在极端条件下对低分辨率图像中多尺度旋转小目标进行检测。
为了解决该问题,学者们基于通用目标检测算法加以改进以适应无人机航拍光学图像的特点,这些改进方法也可以分为基于人为设计特征的方法和基于数据驱动的方法两大类。基于人为设计特征的光学目标检测方法有很多,在最近的研究里,针对不同光照条件下的目标检测问题,文献[35]模仿鹰眼的视觉适应机制,建立了眩光适应、暗光适应、颜色适应和背景适应的数学模型,并基于建立的数学模型提出一种生物鹰眼视觉适应方法,实现了在不同场景(如耀眼、多云、黄昏等)中对海事小目标的有效检测。然而,基于人为设计特征的光学目标检测方法通常需要复杂的人为特征提取,并且不能适应环境的变化。
近年来,学者们基于数据驱动技术,采用将主要问题细分并逐一攻克其中各个小问题的策略,提出了大量光学目标检测网络,使得数据驱动技术在光学目标检测领域取得显著进展。这些光学目标检测网络主要从多尺度融合[36]、数据增强[37]、注意力机制引入[38]、多模态融合策略设计[39]等方面进行单独或联合设计,显著提高了检测性能。
(1)多尺度目标检测
针对多尺度目标检测任务,由于基于数据驱动的检测网络在多次特征池化后,容易丢失小目标信息,针对这一问题,采用多尺度特征融合策略,即通过增强多尺度特征并融合其上下文语义信息。例如文献[40]在Faster R-CNN架构中引入了一个层筛选滤波网络(hierarchical selective filtering layer,HSF),将不同尺度的特征嵌入到同一特征空间,通过不同尺寸的卷积核处理不同尺度的锚点(anchors),以提取大尺度目标的形状信息,而不是局部细节信息。文献[41]利用FPN网络结构融合高分辨率的低级特征图与富含语义信息的高级特征图,文献[42]利用扩张卷积的特性,调整扩张率以控制感受野大小:小扩张率适合捕捉小物体或细节,大扩张率提供更可靠的大物体或整体上下文信息。研究首先在级联残差网络中应用了多扩张率的卷积,以捕获多尺度的上下文信息。随后,融合在不同扩张率下捕获的特征,形成一套增强的特征集,以提升模型的目标识别和理解能力。
注意力机制被广泛应用于提升网络对目标特征的聚焦能力,减少无关信息干扰。例如文献[43]提出了HFPNet网络结构,通过特征增强模块(FEM)和多尺度特征聚合模块(MFM)协同工作,提高了光学海洋小目标的检测精度,其中,FEM通过通道和空间注意力机制增强小目标特征并降低背景干扰。文献[44]提出的AMFLW-YOLO网络先是在特征融合层引入的坐标注意力机制强调了通道和位置信息,提高了网络对正样本的注意力,减少了对环境无关信息的关注;随后在双向特征金字塔网络(BiFPN)结构下进行多尺度特征融合,最终提高了多尺度目标的检测准确率。利用拉普拉斯核有助于突出图像中的小目标或弱特征,而多尺度卷积层则能够捕获从浅层到深层的多尺度特征的特性,文献[45]通过提出一种包含多尺度增强网络和尺度不变回归层的全尺度目标检测网络FSoD-Net,其中MSE-Net集成拉普拉斯核与较少的并行多尺度卷积层,增强了对不同尺度目标的描述能力。文献[46]提出了一种基于改进YOLOv8的LAR-YOLOv8算法,通过引入双分支架构注意力机制的局部模块增强、基于视觉转换器的特征图表示最大化、注意力引导的双向特征金字塔网络,动态地调整注意力权重,有效提升了多尺度目标的检测精度。
基于知识蒸馏的方法也已经被引入光学目标检测领域,以提高多尺度目标检测性能,例如文献[47]提出了一种名为“Two-Way Assistant”(TWA)的知识蒸馏方法,在压缩助理模块(CPAM)中通过对教师模型的特征进行压缩和重新分配,减少背景信息和类别干扰,将处理后的特征传递给学生模型,从而帮助学生模型更好地聚焦于目标特征,再在多尺度自适应助理模块(MAAM)进行多尺度特征融合以增强特征知识,从而最终优化光学目标检测性能。
(2)极端条件下的目标检测
针对在低光照和强遮挡等极端条件下的目标检测问题,文献[48]提出了一种创新的跨模态目标检测网络CRSIOD,该网络通过融合可见光和红外图像特征,并引入照明感知模块和不确定性感知模块,显著提高了检测的准确性和鲁棒性。文献[49]提出了一种边缘引导的递归定位网络(ERPNet),该网络通过边缘感知位置注意力单元(EPAU)有效地结合了光学图像和红外图像多模态特征,以实现对显著对象的精确检测。针对多模态遥感数据中单一模态数据不可靠导致的性能下降问题,文献[39]提出了一种新的融合特征优化检测网络,首先在联合表示优化模块中,根据特定的优化策略(如注意力机制、特征选择等)增强目标相关的特征并抑制那些对检测任务不利的冗余和干扰特征,获得融合的目标特征,再进一步通过特征变换、特征放大等进行特征增强,最终显著提升了多模态目标检测效果。
(3)低分辨率图像中的目标检测
针对低分辨率图像中特征缺失条件下的光学目标检测问题,文献[50]利用YOLOv8s6的目标特征提取器提取的高分辨率特征作为监督信号,进行对抗性GAN训练后获得高分辨特征生成器,使其能够直接从低分辨率图像中提取超分辨率特征,最终同时实现了特征提取和特征增强。
(4)任意方向目标检测
针对目标方向不同条件下的检测问题,文献[51]设计了双分支回归网络(dual-branch regression network)分别预测船只的方向和其他变量(如中心位置、宽度、高度),并通过形状自适应池化和多级自适应池化,改善了特征提取过程中的不均匀采样问题,提高了旋转边界框的准确性,使得生成旋转边界框更准确,有效减少误检和漏检。针对传统的基于水平边界框的检测方法会导致目标间相互覆盖的问题,文献[52]提出了一种结合霍夫(Hough)变换与水平边界框检测网络的新检测器HODet,依次通过水平边界框检测网络、基于霍夫变换的旋转角度预测、图像旋转与二次检测、坐标映射等操作,结合中心点偏移策略,显著提高了对任意方向矩形目标的检测性能。
(5)小目标检测
针对无人机光学小目标检测任务,文献[53]在YOLOv5s检测器中使用了跨阶段多头注意力机制(cross-stage multi-head attention,CRMA)模块,该模块利用自注意力机制捕获更丰富的上下文信息,并对来自不同头的注意力输出进行融合,最终提高对目标特征的辨别能力。然而,由于自注意力操作的计算成本是O(n2),导致推理速度变慢。为了解决这个问题,文献[54]提出了一种无需注意力机制的全局多尺度融合网络AGMF-Net,该网络通过引入空间偏差模块和全局信息提取模块,避免了计算成本高昂的自注意力机制,有效提升了检测目标的推理速度。文献[55]提出了一种新颖的轻量级框架HSIShipDetectionNet,该框架通过结合高阶空间交互(high-order spatial interaction,HSI)模块、引入预测微小船只的分支以及设计轻量级混合注意力块LHAB,实现了基于光学遥感图像的小船只检测。
综上所述,通过这些创新策略的融合与应用,光学目标检测技术在处理多尺度目标、极端条件、低分辨率图像以及任意方向目标检测等方面均取得了突破性进展,为实现更高效、更准确的目标检测提供了强有力的技术支撑。

1.4 视频SAR目标检测

合成孔径雷达(SAR)技术因其全天候、高分辨率成像特征而广泛应用。在高帧率视频SAR图像中,运动目标的能量会因位置偏移导致散焦现象,形成离焦阴影。这些阴影不仅反映目标真实状态,还因不受畸变效应影响,能稳定呈现。目标阴影的对比度与雷达散射截面(radar cross section, RCS)无关,意味着隐身目标的阴影也无法减少或消除,这成为SAR目标检测的优势。因此,运动目标阴影特性及相关检测方法成为研究热点之一。此外,当动阴影不明显时,还可通过散焦后的亮线(能量)特征进行目标检测[56]
基于无人机载荷的视频SAR 动目标阴影检测面临弱小目标、复杂背景和多种杂波与噪声干扰等诸多挑战。首先,SAR 图像中动目标真实位置处的阴影区域像素点有限,一般远小于自然图片中物体的尺寸,参考学术界对光学/遥感图像中“小目标”的绝对尺寸[57]定义,即小目标像素点数小于32×32,通过对美国桑迪亚实验室公布的两个SAR 视频中阴影区域手动标记的尺寸进行统计发现,约91% 的目标阴影像素点数小于32×32,因此SAR 视频中“小目标”阴影占比较大。其次,动目标阴影区域的强度较低,特征不明显,仅有边缘信息和少量甚至缺失的纹理信息,人眼视觉系统很难将这些小目标从单帧图像中分辨出来。再次,视频SAR 在执行侦察任务时,受观测场景的复杂地貌等因素影响,拍摄的视频序列具有背景复杂的特征。最后,视频SAR 目标检测过程中存在各种杂波噪声干扰,如运动目标成像能量移位和散焦造成的杂波、背景强杂波、相干斑噪声、背景特征纹理噪声等,具有信杂噪比小、噪声分布广的特点。基于以上分析可知基于视频SAR图像序列的动目标阴影检测是一个典型的弱小目标检测问题。
国内外学者们针对机载视频SAR 动目标检测提出了多种方法,主要包括帧间/背景差分法、恒虚警检测(constant false alarm rate,CFAR)算法、图像分割法、低秩稀疏分解法、光流法(optical flow method)以及基于深度学习的方法等。
帧间/背景差分动目标检测方法通过多帧积累静态背景信息进行建模和重建,消除静态地物影响后,结合运动目标的几何和统计特征,实现目标检测。例如,何志华等[58]基于背景差分结果和对称差分结果的并集结果,采用形态学滤波和灰度阈值处理,获得动目标阴影最终检测结果。帧间/背景差分法检测目标准确性高,且检测速度快,是一种有效的目标实时检测算法。然而,由于视频SAR平台与观测区域相对运动,雷达视角变化会导致动态背景伪影,干扰弱小目标的检测。
基于二维SAR图像的运动目标CFAR检测方法,最初是由美国麻省理工学院林肯实验室的几位学者于20世纪80年代末90年代初提出[59]。近来,结合视频SAR图像中运动目标特性,学者们提出了众多视频SAR目标CFAR检测算法。如文献[60]建立了视频SAR中动目标阴影成像模型,提出了一个基于阴影的目标检测框架,包括图像联合配准、前景ratio图像提取以及CFAR阴影检测等步骤。刘雨洁等[61]采用级联CFAR算法检测序贯SAR图像中的舰船目标,其中,第一级CFAR设置的虚警率较高,在图像中进行全局CFAR检测,第二级CFAR设置的虚警率较低,使用精确分布模型进行局部检测。
图像分割检测方法结合特定场景背景信息和运动目标的几何、统计特性,实现目标与背景的分割,以进行运动目标检测,其中,最大类间方差法(OTSU)由日本学者大津于1979年提出,该算法根据前景与背景图像的类间方差最大的原则确定分割阈值,并对图像进行二值化分割。文献[62]建立了一个无需几何先验知识的视频SAR目标信息(高度等)提取框架,具体包括重叠子孔径成像、去噪、基于OTSU的图像分割、视距(light-of-sight,LOS)几何匹配、形态学处理以及高度反演等。针对视频SAR图像中目标存在虚影的问题,文献[63]提出了一种单帧阴影检测算法,算法步骤包括OTSU阈值分割、形态学操作、连通域筛选、局部信杂比筛选等步骤。
上述基于CFAR和图像分割的运动目标检测方法可以在单一场景(如道路、海面)中利用背景信息,根据运动目标的统计或几何特征进行检测。然而,在视频SAR复杂背景观测场景中,背景包含简单均匀地物的情况较少,运动目标统计特征不明显,且静止物体成像也有清晰的轮廓和阴影,使得运动目标与背景的区分度低,基于CFAR和图像分割技术的方法难以可靠地检测运动目标。
低秩稀疏(low-rank plus and sparse decomposition,LRSD)分解法是近年来流行的背景重建与前景分割方法,能有效处理动态背景,因而受到广泛关注。该方法通过将动态背景建模为低秩分量,前景建模为稀疏分量,利用最优化方法重建背景和前景。LRSD技术常用于光学视频中动态目标的检测,尤其是高信噪比的场景。在视频SAR图像中,LRSD主要用于检测信噪比较高的动态目标。如文献[64]针对正侧式视频SAR非线性运动(有方位向加速度的)目标检测问题,将背景建模为低秩矩阵,散焦车辆目标能量建模为稀疏矩阵,噪声杂波等建模为扰动矩阵,通过求解LRSD模型获得目标位置。文献[65]针对圆迹视频SAR目标检测问题,在LRSD分解过程中通过自动补偿校正由于场景旋转和平台运动等造成的相位误差,获得静态背景和散焦目标成像。此外,LRSD技术也被用于图像预处理步骤中,例如文献[66]利用LRSD分解技术对视频SAR图像序列进行预处理以提高目标阴影的对比度,进而提高目标检测精度。
光流法最早于1981年由美国麻省理工学院人工智能实验室的Schunck和Horn提出,用于通过帧间灰度变化建立速度场,并根据速度矢量差异检测运动目标[67]。2019年,文献[68]首次将光流法应用于SAR动目标检测领域,提出了一种基于光流法的单通道SAR动目标检测方法,实现了对方位向和距离向速度很小的运动目标散焦能量的检测。光流法对动态背景下的目标检测效果好,但是当背景中噪声多且背景运动幅度较大时,光流法的检测虚警率将增加,检测性能下降[69]。在视频SAR图像中,存在各种杂波噪声干扰,如背景强杂波、相干斑噪声、纹理特征噪声等,这对光流法的检测造成不可忽略的干扰,降低了检测效果。
以上传统方法在早期目标检测研究中发挥了重要作用,但需要专业知识设计特征提取器,且泛化能力有限。近年来,基于深度学习的方法在视频SAR目标检测中也被广泛应用,它们通过自动特征学习简化了专业技能需求,提升了对复杂图像场景的处理能力。学者们针对数据样本短缺[70]、小目标检测[71]等问题,使用的深度学习目标检测网络包括Faster RCNN[72-75],YOLO[76],实时递归(real-time recurrent regression,mRe3) 神经网络[77],基于注意力机制的神经网络[78-79]等。例如,针对SAR图像的斑噪声和训练样本短缺问题,文献[70]提出了一种自监督学习算法。该算法首先使用SAR2SAR深度学习去噪,然后通过对抗式自动编码器重构背景,最后利用背景与去噪图像之间的协方差矩阵的Frobenius-范数距离来检测运动目标。邱磊等[71]为了提升SAR图像目标检测性能,引入了增强特征和多尺度特征金字塔,设计了特征融合策略,并采用了轻量级EfficientDet网络来检测SAR图像中的目标。这些方法展示了深度学习在解决基于无人机载荷的视频SAR目标检测问题中的潜力和灵活性。

2 未来研究展望

未来的无人机将配备更先进的算法,以应对日益复杂的数据分析任务,实现在多样化环境和条件下对目标的高精度检测。
(1)跨模态目标检测技术:不同传感器各有所长,也各有局限。单一传感器(如可见光、红外、SAR等)所提供的数据可能不足以应对所有复杂场景。通过融合多模态数据,不仅可以弥补单一传感器的不足,还能更全面地理解复杂环境,从而显著提升目标检测的准确性与稳定性,特别是在光照变化、遮挡或背景干扰等条件下。在最近的研究中,针对以往的目标检测算法通常针对单一特定领域设计,文献[80]联合了多级领域分类网络和领域中心裁剪粘贴模块分别进行领域不变特征学习和伪中间领域样本监督信息的数据增强,提出了一种能够在多个领域中有效工作的通用船舶检测器。文献[81]提出了一种基于置信度驱动的区域混合框架,该框架通过结合区域选择性混合策略和无偏对抗模块,有效地解决了光学遥感图像在不同数据分布下的无监督域自适应对象检测问题,提高了检测模型的泛化能力和准确性。因此,跨模态目标检测技术需要关注通用性、泛化能力和准确性等因素。
(2)智能化检测系统的构建:在数据驱动的时代,决策者需要实时、准确的数据来做出明智决策,智能化无人机系统能够提供这种数据支持[82]。尤其在紧急情况和快速变化的环境中,对实时数据处理和快速响应的需求不断增长,这种背景下,迫切需要构建能够实时分析大量传感器数据的智能化无人机系统,以实现对目标的有效检测。文献[83]提出的基于脑-机接口的无人机目标混合智能检测系统,通过结合深度学习检测算法和基于统计理论的增强事件相关电位成分算法,构建了一个有效的联合决策框架,不仅可以优化无人机的飞行参数,还可以充分利用多传感器信息提高事件相关电位检测效率并抑制干扰成分。同时,构建无人机智能化检测系统还需要考虑能源消耗。文献[84]提出的E3-UAV系统,正是为了满足这一需求而设计的,它是一个基于边缘计算的能源高效目标检测系统,能够通过优化飞行参数(包括飞行高度、飞行速度、检测算法和采样率)来最小化能源消耗,同时满足多样化的检测任务要求。综上,未来的智能化无人机检测系统需要在保证高准确性和快速响应的基础上,进一步考虑能源效率和系统的可持续性。
(3)超大模型能力的提升:超大模型具有数据容量庞大、计算能力强、成本低(多种任务共享一个模型)、数据泛化性高(以各种数据作为训练输入)、行为预测能力强等特点,这将为无人机在复杂多变的环境中进行目标检测提供更高精度和适应性的可能。然而,现实世界场景的复杂多变要求大模型具备强大的学习能力,以理解和适应这些复杂场景,并提供全面的情境感知。提升超大模型能力需要关注计算复杂度和检测速度等因素,并在检测精度和运算速度之间做到良好的平衡。如何在保持甚至降低模型复杂度的同时提升检测精度是一个充满挑战的研究。文献[85]提出的YOLOv5-mamba检测网络是一个显著的进步,它通过引入YOLOv8的C2f和Mamba模块来强化特征提取,并结合双向反馈和自适应门控融合策略,显著提升了检测精度,同时保持了较快的运算速度。随着Transformer、Mamba、SwinLSTM等的发展和应用,基于无人机载荷的多任务(视觉目标检测、语义分割、目标跟踪等)超大模型成为了可能。总之,未来的研究需要继续在超大模型的优化、特征提取技术的提升以及多任务处理能力的开发等方面进行深入探索,以实现无人机目标检测系统的全面升级和性能飞跃。

3 结束语

本文综述了基于无人机载荷的目标检测技术的最新进展,并展望了跨模态融合、智能化系统构建和大模型能力提升等未来研究方向。尽管深度学习技术在提高检测准确性方面取得了显著成就,但仍需解决泛化能力和训练样本依赖等挑战。随着技术的持续进步,预计无人机目标检测技术将更加成熟,为多个领域提供强有力的支持。
[1]
CHAI J D, HE S M, SHIN H S, et al. Dynamic knowledge-based tracking and autonomous anomaly detection[J]. IEEE Transactions on Aerospace and Electronic Systems, 2024, 60(2): 1 597-1 611.

[2]
ZHU P F, WEN L Y, DU D W, et al. Detection and tracking meet drones challenge[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2022, 44(11): 7 380-7 399.

[3]
STOCKEL P, WALLRATH P, HERSCHEL R, et al. Detection and monitoring of people in collapsed buildings using a rotating radar on a UAV[J]. IEEE Transactions on Radar Systems, 2024(2): 13-23.

[4]
CHEN X Q, LI Z B, YANG Y S, et al. High-resolution vehicle trajectory extraction and denoising from aerial videos[J]. IEEE Transactions on Intelligent Transportation Systems, 2021, 22(5): 3 190-3 202.

[5]
WU H, HE Z W, GAO M Y. GCEVT: Learning global context embedding for vehicle tracking in unmanned aerial vehicle videos[J]. IEEE Geoscience and Remote Sensing Letters, 2023(20): 1-5.

[6]
罗旭东, 吴一全, 陈金林. 无人机航拍影像目标检测与语义分割的深度学习方法研究进展[J]. 航空学报, 2024, 45(6):241-270.

LUO X D, WU Y Q, CHEN J L. Research progress on deep learning methods for object detection and semantic segmentation in UAV aerial images[J]. Acta Aeronautica et Astronautica Sinica, 2024, 45(6): 241-270.

[7]
陈金林, 吴一全, 苑玉彬. 无人机视角下目标检测的YOLO系列算法研究进展[J/OL]. 北京航空航天大学学报,1-33[2024-10-14].https://doi.org/10.13700/j.bh.1001-5965.2024.0420.

CHEN J L, WU Y Q, YUAN Y B. Research progress on YOLO series algorithms for target detection from the UAV vision[J/OL]. Journal of Beijing University of Aeronautics and Astronautics, 2024.[Online]. Available: https://doi.org/10.13700/j.bh.1001-5965.2024.0420. Accessed:2024-10-14].

[8]
苑玉彬, 吴一全, 赵朗月, 等. 基于深度学习的无人机航拍视频多目标检测与跟踪研究进展[J]. 航空学报, 2023, 44(18): 1-31.

YUAN Y B, WU Y Q, ZHAO L Y, et al. Research progress of UAV aerial video multi-object detection and tracking based on deep learning[J]. Acta Aeronautica et Astronautica Sinica, 2023, 44(18): 1-31.

[9]
吴一全, 童康. 基于深度学习的无人机航拍图像小目标检测研究进展[J/OL]. 航空学报, 1-28[2024-11-07]. http://kns.cnki.net/kcms/detail/11.1929.V.20240923.1021.002.html.

WU Y Q, TONG K. Research advances on deep learning-based small object detection in UAV aerial images[J/OL]. Acta Aeronautica et Astronautica Sinica, 2024.[Online]. Available: http://kns.cnki.net/kcms/detail/11.1929.V.20240923.1021.002.html. Accessed:2024-11-7].

[10]
GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[EB/OL]. 2013: 1311.2524. https://arxiv.org/abs/1311.2524v5.

[11]
WANG C Y, BOCHKOVSKIY A, LIAO H Y M. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]//2023 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), Vancouver, BC, Canada: IEEE, 2023: 7 464-7 475.

[12]
WARREN R C. Detection of distant airborne targets in cluttered backgrounds in infrared image sequences[D]. Australia: University of South Australia, 2002.

[13]
BARNETT J T. Statistical analysis of median subtraction filtering with application to point target detection in infrared backgrounds[C]// Proceedings of SPIE-The International Society for Optical Engineering, Los Angeles, CA, USA: SPIE, 1989: 10-18.

[14]
LIU R, WANG D, ZHOU D, et al. Point target detection based on multiscale morphological filtering and an energy concentration criterion[J]. Appl Opt, 2017, 56(24): 6 796-6 805.

[15]
SUN Y Q, TIAN J W, LIU J. Background suppression based-on wavelet transformation to detect infrared target[C]// International Conference on Machine Learning and Cybernetics, Guangzhou, China: IEEE, 2005, 8: 4 611-4 615.

[16]
ZHOU A R, XIE W X, PEI J H. Infrared maritime target detection using the high order statistic filtering in fractional Fourier domain[J]. Infrared Physics & Technology, 2018(91): 123-136.

[17]
XIN Y H, ZHOU J, CHEN Y S. Dual multi-scale filter with SSS and GW for infrared small target detection[J]. Infrared Physics & Technology, 2017(81): 97-108.

[18]
CHEN C L P, LI H, WEI Y T, et al. A local contrast method for small infrared target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2014, 52(1): 574-581.

[19]
HAN J H, YONG M, BO Z, et al. A robust infrared small target detection algorithm based on human visual system[J]. IEEE Geoscience and Remote Sensing Letters, 2014, 11(12): 2 168-2 172.

[20]
QIN Y, LI B. Effective infrared small target detection utilizing a novel local contrast method[J]. IEEE Geoscience and Remote Sensing Letters, 2016, 13(12):1890-1 894.

[21]
WEI Y T, YOU X G, LI H. Multiscale patch-based contrast measure for small infrared target detection[J]. Pattern Recognition, 2016(58): 216-226.

[22]
HAN J H, LIANG K, ZHOU B, et al. Infrared small target detection utilizing the multiscale relative local contrast measure[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 15(4): 612-616.

[23]
GAO C, MENG D, YANG Y, et al. Infrared patch-image model for small target detection in a single image[J]. IEEE Trans Image Process, 2013, 22(12): 4 996-5 009.

[24]
LI L, LI H, LI T, et al et al., Infrared small target detection in compressive domain[J]. Electronics Letters, 2014, 50(7): 510-512.

[25]
ZHAO M J, LI W, LI L, et al. Three-order tensor creation and tucker decomposition for infrared small-target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-16.

[26]
DAI Y M, WU Y Q. Reweighted infrared patch-tensor model with both non-local and local priors for single-frame small target detection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2017, 10(8): 3 752-3 767.

[27]
LUO Y, LI X R, CHEN S H, et al. IMNN-LWEC: a novel infrared small target detection based on spatial—temporal tensor model[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-22.

[28]
ZHANG X Y, DING Q H, LUO H B, et al. Infrared small target detection based on directional zero-crossing measure[J]. Infrared Physics & Technology, 2017(87): 113-123.

[29]
WANG G D, CHEN C Y, SHEN X B. Facet-based infrared small target detection method[J]. Electronics Letters, 2005, 41(22): 1 244.

[30]
BAI X Z, BI Y G. Derivative entropy-based contrast measure for infrared small-target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(4): 2 452-2 466.

[31]
ZHAO B, WANG C P, FU Q, et al. A novel pattern for infrared small target detection with generative adversarial network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(5): 4 481-4 492.

[32]
DAI Y M, WU Y Q, ZHOU F, et al. Attentional local contrast networks for infrared small target detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(11): 9 813-9 824.

[33]
梁晓, 李俊. 基于改进YOLOv7的红外无人机目标检测方法[J]. 电光与控制, 2023, 30(12): 38-43, 92.

LIANG X, LI J. An infrared UAV target detection method based on improved YOLOv7[J]. Electronics Optics & Control, 2023, 30(12): 38-43, 92.

[34]
FANG H Z, XIA M J, ZHOU G, et al. Infrared small UAV target detection based on residual image prediction via global and local dilated residual networks[J]. IEEE Geoscience and Remote Sensing Letters, 2022(19): 1-5.

[35]
DUAN H B, XU X B, DENG Y M, et al. Unmanned aerial vehicle recognition of maritime small-target based on biological eagle-eye vision adaptation mechanism[J]. IEEE Transactions on Aerospace and Electronic Systems, 2021, 57(5): 3 368-3 382.

[36]
刘芳, 吴志威, 杨安喆, 等. 基于多尺度特征融合的自适应无人机目标检测[J]. 光学学报, 2020, 40(10): 127-136.

LIU F, WU Z W, YANG A Z, et al. Multi-scale feature fusion based adaptive object detection for UAV[J]. Acta Optica Sinica, 2020, 40(10): 127-136.

[37]
刘树东, 刘业辉, 孙叶美, 等. 基于倒置残差注意力的无人机航拍图像小目标检测[J]. 北京航空航天大学学报, 2023, 49(3): 514-524.

LIU S D, LIU Y H, SUN Y M, et al. Small object detection in UAV aerial images based on inverted residual attention[J]. Journal of Beijing University of Aeronautics and Astronautics, 2023, 49(3): 514-524.

[38]
王殿伟, 赵文博, 房杰, 等. 多类场景下无人机航拍视频烟雾检测算法[J]. 哈尔滨工业大学学报, 2023, 55(10): 122-129.

WANG D W, ZHAO W B, FANG J, et al. Smoke detection algorithm for UAV aerial video in multiple scenarios[J]. Journal of Harbin Institute of Technology, 2023, 55(10): 122-129.

[39]
WANG J P, XU C A, ZHAO C H, et al. Multimodal object detection of UAV remote sensing based on joint representation optimization and specific information enhancement[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024(17): 12 364-12 373.

[40]
LI Q P, MOU L C, LIU Q J, et al. HSF-net: multiscale deep feature embedding for ship detection in optical remote sensing imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2018, 56(12): 7 147-7 161.

[41]
QU J S, SU C, ZHANG Z W, et al. Dilated convolution and feature fusion SSD network for small object detection in remote sensing images[J]. IEEE Access, 2020(8): 82 832-82 843.

[42]
HAN W X, KUERBAN A, YANG Y C, et al. Multi-vision network for accurate and real-time small object detection in optical remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2022(19): 1-5.

[43]
CHEN C C, ZENG W M, ZHANG X L. HFPNet: super feature aggregation pyramid network for maritime remote sensing small-object detection[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2023(16): 5 973-5 989.

[44]
PENG G L, YANG Z J, WANG S B, et al. AMFLW-YOLO: a lightweight network for remote sensing image detection based on attention mechanism and multiscale feature fusion[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023(61): 1-16.

[45]
WANG G Q, ZHUANG Y, CHEN H, et al. FSoD-net: full-scale object detection from optical remote sensing imagery[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 3 064 599.

[46]
YI H, LIU B, ZHAO B, et al. Small object detection algorithm based on improved YOLOv8 for remote sensing[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024(17): 1 734-1 747.

[47]
YANG X, ZHANG S, YANG W C. Two-way assistant: a Anowledge distillation object detection method for remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 1-10.

[48]
WANG H Y, WANG C P, Fu Q, et al. Cross-modal oriented object detection of UAV aerial images based on image feature[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 1-21.

[49]
ZHOU X, SHEN K, WENG L, et al. Edge-guided recurrent positioning network for salient object detection in optical remote sensing images[J]. IEEE Trans Cybern, 2023, 53(1): 539-552.

[50]
ZHANG H P, WEN S Z, WEI Z X, et al. High-resolution feature generator for small-ship detection in optical remote sensing images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 3 377 999.

[51]
LI L H, ZHOU Z Q, WANG B, et al. A novel cnn-based method for accurate ship detection in HR optical remote sensing images via rotated bounding box[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 59(1): 686-699.

[52]
XU L, YU J W, MING D P. HODet: A new detector for arbitrary-oriented rectangular object in optical remote sensing imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024(17): 2 918-2 926.

[53]
CHEN J Q, CHEN K Y, CHEN H, et al. A degraded reconstruction enhancement-based method for tiny ship detection in remote sensing images with a new large-scale dataset[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-14.

[54]
GAO T, LI Z Q, WEN Y B, et al. Attention-free global multiscale fusion network for remote sensing object detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 3 346 041.

[55]
YIN Y F, CHENG X, SHI F, et al. High-order spatial interactions enhanced lightweight model for optical remote sensing image-based small ship detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 1-16.

[56]
YAN H, XU X, JIN G D, et al. Moving targets detection for video SAR surveillance using multilevel attention network based on shallow feature module[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023(61): 1-18.

[57]
高新波, 莫梦竟成, 汪海涛, 等. 小目标检测研究进展[J]. 数据采集与处理, 2021, 36(3):391-417.

GAO X B, MO M J C, WANG H T, et al. Recent advances in small object detection[J]. Journal of Data Acquisition and Processing, 2021, 36(3): 391-417.

[58]
何志华, 陈兴, 于春锐, 等. 一种稳健的视频SAR 动目标阴影检测与跟踪处理方法[J]. 电子与信息学报, 2022, 44(11): 3 882-3 890.

HE Z H, CHEN X, YU C R, et al. A robust moving target shadow detection and tracking method for VideoSAR[J]. Journal of Electronics and Information Technology, 2022, 44(11): 3 882-3 890.

[59]
NOVAK L M, OWIRKA G J, NETISHEN C M. Performance of a high-resolution polarimetric SAR automatic target recognition system[J]. Lincoln Laboratory Journal, 1992, 6(11): 11-24.

[60]
WANG H, CHEN Z S, ZHENG S C. Preliminary research of low-RCS moving target detection based on ka-band video SAR[J]. IEEE Geoscience and Remote Sensing Letters, 2017, 14(6): 811-815.

[61]
刘雨洁, 齐向阳. 基于长时间间隔序贯SAR 图像的运动舰船跟踪方法[J]. 中国科学院大学学报, 2021, 38(5): 642-648.

DOI

LIU Y J, QI X Y. A moving ship tracking method based on long time interval sequential SAR images[J]. Journal of University of Chinese Academy of Sciences, 2021, 38(5): 642-648.

DOI

[62]
ZHANG Y, ZHU D Y. Height retrieval in postprocessing-based VideoSAR image sequence using shadow information[J]. IEEE Sensors Journal, 2018, 18(19): 8 108-8 116.

[63]
LIU Z K, AN D X, HUANG X T. Moving target shadow detection and global background reconstruction for VideoSAR based on single-frame imagery[J]. IEEE Access, 2019(7): 42 418-42 425.

[64]
ZHANG Y, ZHU D Y, WANG P, et al. Vision-based vehicle detection for VideoSAR surveillance using low-rank plus sparse three-term decomposition[J]. IEEE Transactions on Vehicular Technology, 2020, 69(5): 4 711-4 726.

[65]
MORADIKIA M, SAMADI S, HASHEMPOUR H R, et al. Video-SAR imaging of dynamic scenes using low-rank and sparse decomposition[J]. IEEE Transactions on Computational Imaging, 2021(7): 384-398.

[66]
XU X W, ZHANG X L, ZHANG T W, et al. Shadow-background-noise 3D spatial decomposition using sparse low-rank Gaussian properties for video-SAR moving target shadow enhancement[J]. IEEE Geoscience and Remote Sensing Letters, 2022(19): 1-5.

[67]
HORN B K, SCHUNCK B G. Determining optical flow[J]. Artificial Intelligence, 1981(17):185-203.

[68]
WANG Z R, SUN X, DIAO W H, et al. Ground moving target indication based on optical flow in single-channel SAR[J]. IEEE Geoscience and Remote Sensing Letters, 2019, 16(7): 1 051-1 055.

[69]
MAE Y, SHIRAI Y, MIURA J, et al. Object tracking in cluttered background based on optical flow and edges[C]// Proceedings of 13th International Conference on Pattern Recognition, Vienna, Austria: IEEE, 1996(1): 196-200.

[70]
MUZEAU M, REN C F, ANGELLIAUME S, et al. Self-supervised learning based anomaly detection in synthetic aperture radar imaging[J]. IEEE Open Journal of Signal Processing, 2022(3): 440-449.

[71]
邱磊, 张学志, 郝大为. 基于深度学习的视频SAR 动目标检测与跟踪算法[J]. 自然资源遥感, 2023, 35(2): 157-166.

QIU L, ZHANG X Z, HAO D W. VideoSAR moving target detection and tracking algorithm based on deep learning[J]. Remote Sensing for Natural Resources, 2023, 35(2): 157-166.

[72]
丁金闪. 视频SAR成像与动目标阴影检测技术[J]. 雷达学报, 2020, 9(2): 321-334.

DING J S. Focusing algorithms and moving target detection based on video SAR[J]. Journal of Radars, 2020, 9(2): 321-334.

[73]
DING J S, WEN L W, ZHONG C, et al. Video SAR moving target indication using deep neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2020, 58(10): 7 194-7 204.

[74]
ZHANG X B, WU D, ZHANG X F, et al. Moving target shadow detection and tracking in ViSAR based on DNN and multi-object tracking algorithm[C]//2021 IEEE 6th International Conference on Signal and Image Processing (ICSIP). Nanjing, China, 2021: 98-102.

[75]
WEN L W, DING J S, LOFFELD O. Video SAR moving target detection using dual Faster R-CNN[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2021(14): 2 984-2 994.

[76]
LUAN J W, WEN L W, DING J S. Multifeature joint detection of moving target in video SAR[J]. IEEE Geoscience and Remote Sensing Letters, 2022(19): 1-5.

[77]
ZHOU Y Y, SHI J, WANG C, et al. SAR ground moving target refocusing by combining mRe3 network and TVβ-LSTM[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-14.

[78]
BAO J Y, ZHANG X L, ZHANG T W, et al. Shadow-enhanced self-attention and anchor-adaptive network for video SAR moving target tracking[J]. IEEE Transactions on Geoscience and Remote Sensing, 2023(61): 1-13.

[79]
YANG X Q, SHI J, CHEN T J, et al. Fast multi-shadow tracking for video-SAR using triplet attention mechanism[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-12.

[80]
ZHANG X, YANG X, YANG D, et al. A universal ship detection method with domain-invariant representations[J]. IEEE Transactions on Geoscience and Remote Sensing, 2022(60): 1-11.

[81]
LIU C, DONG Y N, ZHANG Y X, et al. Confidence-driven region mixing for optical remote sensing domain adaptation object detection[J]. IEEE Transactions on Geoscience and Remote Sensing, 2024(62): 3 417 610.

[82]
WANG S J, JIANG F, ZHANG B, et al. Development of UAV-based target tracking and recognition systems[J]. IEEE Transactions on Intelligent Transportation Systems, 2020, 21(8): 3 409-3 422.

[83]
ZHANG Y F, ZHANG H X, GAO X R, et al. UAV target detection for IoT via enhancing ERP component by brain—computer interface system[J]. IEEE Internet of Things Journal, 2023, 10(19): 17 243-17 253.

[84]
SUO J S, ZHANG X Z, SHI W S, et al. E3-UAV: an edge-based energy-efficient object detection system for unmanned aerial vehicles[J]. IEEE Internet of Things Journal, 2024, 11(3): 4 398-4 413.

[85]
WU S X, LU X Y, GUO C C. YOLOv5_mamba: unmanned aerial vehicle object detection based on bidirectional dense feedback network and adaptive gate feature fusion[J]. Scientific Reports, 2024(14): 2 2396.

文章导航

/