中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
信息融合

面向无人艇视角的海上光学图像目标检测算法研究

  • 王玉松 1 ,
  • 纪延琚 2 ,
  • 陈勤辉 3
展开
  • 1 海军装备部某中心, 北京 100000
  • 2 江苏自动化研究所, 江苏 连云港 222061
  • 3 湖南大学电气与信息工程学院, 湖南 长沙 410000

王玉松(1983—),男,硕士,工程师,研究方向为装备智能化。

纪延琚(1986—)男,硕士,高级工程师。

收稿日期: 2025-05-09

  修回日期: 2025-06-14

  网络出版日期: 2025-09-25

Research on marine optical image target detection algorithm from the perspective of USV

  • WANG Yusong 1 ,
  • JI Yanju 2 ,
  • CHEN Qinhui 3
Expand
  • 1 A Particular Center, Naval Equipment Department, Beijing 100000, China
  • 2 Jiangsu Automation Research Institute, Lianyungang 222061, China
  • 3 College of Electrical and Information Engineering Hunan University, Changsha 410000, China

Received date: 2025-05-09

  Revised date: 2025-06-14

  Online published: 2025-09-25

摘要

无人艇在自然海域应用过程中,光学图像成像质量低、侧视视角致使目标特征局部化和深度方向畸变、盐渍水滴造成透镜形变、极大极小目标并存等问题,上述问题引发基于深度学习的图像目标检测算法性能下降,漏检误检率居高不下,进而导致避碰决策算法发散或频繁紧急告警。为提升无人艇光学图像目标检测效果,基于YOLOv8算法模型,首先引入Copy-Paste算法和非配对图像风格迁移算法,构建目标多视角图像和异常环境导致的低质量图像,解决数据集中低质量图像占比低的问题;其次在检测网络中增加专用小目标检测头并优化损失函数,在保留原模型目标检测能力的同时强化了小目标检测能力。构建的目标检测模型经增广数据集训练,在测试集上目标检测平均精度达到96.2%。

本文引用格式

王玉松 , 纪延琚 , 陈勤辉 . 面向无人艇视角的海上光学图像目标检测算法研究[J]. 指挥控制与仿真, 2025 , 47(5) : 49 -57 . DOI: 10.3969/j.issn.1673-3819.2025.05.007

Abstract

During the application of unmanned surface vehicles (USVs) in natural sea areas, issues such as low-quality optical image imaging, localized target features and depth-directional distortion caused by side-viewing angles, lens deformation due to saltwater droplets, and the coexistence of extremely large and small targets occur. These phenomena lead to a decline in the performance of deep learning-based image target detection algorithms, resulting in high rates of missed detections and false alarms. Consequently, this causes the collision avoidance decision-making algorithms to diverge or trigger frequent emergency alarms. To enhance object detection accuracy for USV optical images, this paper proposes an optimized framework based on the YOLOv8 model. First, the Copy-Paste algorithm and unpaired image style transfer algorithm are introduced to generate multi-view target images and low-quality images caused by adverse environmental conditions, addressing the imbalance in the proportion of low-quality images in the dataset. Second, a dedicated detection head for small targets is added to the detection network, and the loss function is optimized to enhance the detection capability for small targets while preserving the original model’s performance on larger objects. The newly developed object detection model, trained on the augmented dataset, achieves an average precision of 96.2% on the test set.

随着人工智能、传感器技术等飞速发展和深度应用,自主无人艇得以蓬勃发展,成为海洋开发与利用的新质平台。在复杂多变的自然海洋环境下,无人艇自主航行能力发展的关键因素是环境感知及处理能力。通常情况下,无人艇配置多种传感器在不同的感知域对无人艇周边进行联合感知测量,以弥补单个传感器的能力不足,如光学传感器、激光雷达、毫米波雷达、导航雷达等设备[1],其中,光学传感器具备模块化程度高、技术成熟,经济性好,无固有盲区,成像细节特征丰富等优点,是无人艇标配设备,在无人艇近区环境感知中扮演着至关重要的角色。
光学传感器对环境干扰尤为敏感,在无人艇应用场景中,在侧视视角下,目标呈现特征局部化和轮廓深度方向形变(见图1);雨、雪、雾、强光、逆光、弱光等光照条件影响,导致成像质量不高,波浪及浪花形成形状各异的亮块、阴影、光晕等影响目标检测效果(见图2);镜头水滴和盐渍污染导致图像局部透镜效应或椒盐噪声(见图3)等。上述因素使图像目标检测算法在无人艇应用场景下性能不稳定,自主任务过程中,频繁造成停船或紧迫局面,对无人艇自主执行任务的安全性和连续性造成影响。本文主要针对无人艇在自然海域中光学传感器成像质量不高、侧视视角图像的特点,开展目标检测算法研究,以提升目标检测效果。
图1 同一目标在侧视视角下特征变化显著

Fig.1 Significant feature changes occur from the same target’s side-view perspective

图2 环境因素对目标成像的影响(逆光、光晕、大雾)

Fig.2 The influence of environmental factors on target imaging (backlight, halo, fog)

图3 镜头因素对成像质量的影响(航行冲击的浪花、镜头水滴)

Fig.3 The influence of lens factors on imaging quality (waves impact, water droplets)

1 图像目标检测算法应用

随着计算机算力的增长,图像处理在无人驾驶、安全监控、交通监控和机器人视觉等领域得到广泛应用,面向光学图像目标检测的新算法、新框架层出不穷,应用场景不断拓展。传统图像目标检测通常基于人工目标特征构建,包括区域选择、特征提取和目标分类3步,依赖专用的特征设计与特定场景,如Adaboost算法[2]、方向梯度直方图(HOG)[3]、尺度不变特征变换(SIFT)[4]等。2012年,基于深度卷积神经网络(CNN)的AlexNet[5]以显著优势夺得ImageNet图像识别比赛冠军,从此图像目标检测进入深度学习时代。
基于深度学习的目标检测依据检测方式主要分为两类:两级检测(two-stage detection)和单级检测(one-stage detection)[6]。两级检测以Faster-RCNN为典型代表,目标定位和识别精度较高,实时性一般,适用于时间不敏感的场景;单级检测以YOLO为典型代表,2015年,Joseph Redmon等[7]提出YOLOv1算法,其核心思想是将目标检测任务看作回归问题,通过基于网格的方法,在单次前向传递中同时预测边界框和类别概率,使用多尺度的锚框来改进对不同大小目标的检测,最终通过非极大值抑制(NMS)过滤掉冗余和低置信度的预测,使YOLO成为一种高效可靠的目标检测方法。此后十年,YOLO系列算法持续迭代,不断在架构、训练策略上推陈出新,力求在速度与精度上达到平衡,2025年2月已发布v12版本[8]。受益于学术界和工程界的深度应用和庞大的社区支持,算法的实时性和准确性不断提升,YOLO算法已被广泛用于需快速实时检测目标的场景,尤其在实时性要求高于精度要求的场景。
在无人艇自主航行的环境感知领域,需要近乎实时的检测近区目标以支撑艇端控制进行航行决策和控制,因此YOLO算法在无人系统的目标检测领域应用被广泛研究。程亮等[9]针对无人艇应用场景提出了一种增强型轻量级目标检测网络WT-YOLO,FPS提升至30,检测平均精度达79.3%;徐海彬等[10]在Tiny-YOLOv3的基础上,基于细节特征的需求增加小尺度预测分支,提出一种定位增强轻量级检测网络,检测精度分别提升4.97%AP、6.17%AP,二级海况下自主对接成功率达到90.9%;朱旭芳等[11]通过量化网络和剪枝技术优化YOLOv4模型,使得图像目标检测精度超80.7%,FPS达到72,目标数据与导航雷达目标进行关联融合,可有效实现对船舶类目标跟踪;郭海艳等[12]依托YOLOv5实现面向水面无人艇的目标检测与船舶分类,引入ASPP-pool模块,将目标检测网络和级联网络精度分别提高1.06%和0.76%;S. Tang等[13]基于YOLOv5模型增加小目标检测头和卷积特征增强等改进构建HIC-YOLOv5模型,将mAP@[0.5:0.95]和mAP@0.5分别提升6.42%和9.38%;左震等[14]基于YOLOv8检测网络,设计了基于多尺度坐标注意力的目标区域提取方法,对舰船目标实现较高的检测精度,真实海面场景下平均精度均值mAP@0.5提升了1.1%,FPS达27,满足了海面无人艇鲁棒、实时检测需求;张发枝等[15]采用YOLOv8模型检测海面目标,设计基于类别先验划分的双模型测距算法,实现单目视觉的无人艇海面目标实时测距方法;SM Shaqib等[16]将YOLOv8应用于实时车辆检测,车辆检测准确率达96.58%,车速估计精度达87.28%;潘玮等[17]针对YOLOv8s模型,通过引入双层路由注意力机制(BiF omer)和上下文聚合模块(CAM),在复杂背景下(如雨天、夜间)的无人机视角下的检测性能提升15%以上。
YOLO算法在交通监控、无人机视角下的目标检测、无人艇的海上常见目标检测方面已经开展了大量的应用研究,并取得了丰富的成果。然而,针对无人艇的常态化自然海域自主航行光学图像目标检测中存在的问题有目标特征局部性、图像质量不高、超大极小尺度目标并存对载体平台运动剧烈的情况研究则较少。基于文献并结合无人艇目标检测需求,权衡算法的先进性、工程化应用的便捷性和社区支持,本文选择YOLOv8作为基础算法,从数据集增广、算法架构改进和损失函数优化3个方面进行优化改进。

2 基于YOLOv8的海面目标检测算法改进

无人艇长时航行过程中,天气变化、光照变化、镜头污染、剧烈摇摆、观测角度变化等是影响海面目标检测模型性能的主要因素,由于模型的训练集中包含此类情况的有价值数据获取困难且占比较少,导致模型应对此类情况的经验不足。面对无人值守的严苛环境,需通过算法设计优化解决成像质量低、侧视视角导致的目标特征局部化、盐渍水滴造成的目标变形、小目标等问题。

2.1 专用数据集增强

经过多年实装试验数据的人工评判收集,作者已构建由21 309张典型实景图像及标注数据组成的原始数据集,数据主要由艇载全景相机和光电设备在不同的试验场地采集。然而针对无人艇侧视视角造成的目标局部特征,观测设备受水滴和盐渍干扰,非正常光照条件等场景,上述数据量远远不能满足YOLO模型训练要求,拟进行增广处理。

2.1.1 Copy-Paste数据增强

由于无人艇对周边观测采用侧视角度导致图像目标特征局部化,若通过试验采集同一个目标不同角度的图像样本根本不现实且很难达到训练基本的样本量需求。Copy-Paste算法[18]核心是通过动态或规则化的复制-粘贴操作实现数据增强,用于实例分割任务。本文选用Copy-Paste对样本数据进行扩充,生成目标不同角度的样本数据,算法对图像的操作前后对比见图4。设计策略如下:
图4 Copy-Paste算法操作前后对比图

Fig.4 Comparison diagram before and after Copy-Paste algorithm operation

策略1:选择目标特征纹理较为清晰的图像,目标粘贴的位置在图像中已有目标的附近,被粘贴的目标大小随机缩放到32×32到64×64范围之内,原有目标的被遮挡部分不能超过本身检测框面积的30%;
策略2:新生成的图像大小不超过原有图像,为保证生成图像具有一定的现实合理性,进行Copy-Paste操作时,限制每张图像上最多容纳6个目标;
策略3:根据自然海洋环境中目标特性,Copy-Paste操作过程中,目标旋转角度不得大于45度。

2.1.2 基于CycleGAN的非配对图像风格迁移

出于安全和成本因素考虑,出航前研究人员会对光学镜头进行清理,气象条件不好时极少组织航行,从而累积的样本也存在不均衡性,如雨雾、镜头水滴和盐渍等非正常环境的图像样本较少,异常场景得不到充分训练,导致在遭遇恶劣海洋环境时,模型目标检测性能下降明显。
非配对风格迁移[19]无须内容图与风格图成对对齐,无须数据对齐标注,直接学习两个图像域(如干净→水渍)之间的映射关系,且支持差异巨大的域间迁移。本文引入CycleGAN对现有样本进行低光照、逆光、镜头盐渍、水滴等风格变换,以生成新的病态样本,解决恶劣环境数据样本不足的问题,提高目标检测网络对光照变化、图像质量变化的鲁棒性。
CycleGAN算法原理架构如图5所示,由2个生成器(GF)和2个判别器(DX 和DY)组成,其中生成器G负责将图像从域X转换到域Y,F则相反,称之为G的反向生成器,而判别器的任务则是尽可能地区分各自对应数据域的转换后的生成图像与真实图像。
图5 CycleGAN原理图

Fig.5 Schematic diagram of CycleGAN

由于CycleGAN两个GAN网络互相嵌套的特殊网络架构,需分别设置对应的对抗损失来约束XY两个数据域的生成器和判别器。
其中, X Y的训练损失函数为

L G A N ( G , D Y , X , Y ) = E y ~ p d a t a ( y ) [ l o g D Y ( y ) ] +   E x ~ p d a t a ( x ) [ l o g ( 1 - D Y ( G ( x ) ) ) ]

其中, E y ~ p d a t a ( y ) [ · ]表示在数据y的概率分布 p d a t a ( y )下对后续表达式求期望; p d a t a ( y )表示y的概率分布,y从该分布中采样得到。 E y ~ p d a t a ( y ) [ l o g D Y ( y ) ]是从真实数据分布 p d a t a ( y )中采样真实数据y,然后计算判别器 D Y对真实数据y的对数概率。判别器希望正确识别出真实数据,从而希望该项值最大化,即 D Y ( y )越接近1, l o g D Y ( y )的值越大; E x ~ p d a t a ( x ) [ l o g ( 1 - D Y ( G ( x ) ) ) ]从分布 p d a t a ( x )中采样x,通过生成器G得到生成数据G(x),然后计算判别器DY 对生成数据G(x)判断为假的对数概率。判别器希望最大化该值,即希望 1 - D Y G x越接近1,从而 l o g ( 1 - D Y ( G ( x ) ) )的值越大; 而生成器则希望最小化这个值,让判别器误判生成数据为真实数据,即让   D Y ( G ( x ) )接近1。同理, Y X的训练损失函数为

L G A N ( F , D X , X , Y ) = E x ~ p d a t a ( x ) [ l o g D X ( x ) ] +   E y ~ p d a t a ( y ) [ l o g ( 1 - D X ( F ( y ) ) ) ]

此外,模型需保证生成的图像保留原始图像的语义特征,使用 X Y生成器将X数据域的图像x迁移成Y数据域的假图像,该假图像还需要能够通过另一个 Y X生成器来尽可能恢复成X数据域的原始图像,即该过程需满足循环一致性原则以实现2个不同域之间的循环转换,因此引入循环一致性损失评价:

L c y c ( G , F ) = E x ~ p d a t a ( x ) [ F ( G ( x ) ) - x 1 ] + E y ~ p d a t a ( y ) [ G ( F ( y ) ) - y 1 ]

其中, · 1 L 1范数,用于衡量两个数据之间的差异程度。 E x ~ p d a t a ( x ) [ F ( G ( x ) ) - x 1 ]表示从数据分布 p d a t a x中采样数据x,先通过生成器Gx转换到域Y,再用F转换回原域得到 F G x。然后计算 F G x与原始数据x之间的L1 距离,并对这个距离在分布 p d a t a x下求期望。该转换期望 F G x尽可能接近x,即经过GF的转换后能还原原始数据。 E y ~ p d a t a ( y ) [ G ( F ( y ) ) - y 1 ]同理,即期望y经过FG的转换后能还原原始y
综上, CycleGAN模型的训练损失为

L ( G , F , D X , D Y ) = L G A N ( G , D Y , X , Y ) +   L G A N ( F , D X , X , Y ) + L c y c ( G , F )

在训练过程中,当生成数据的分布与目标数据域的分布相同时完成训练,此时生成器和判别器之间达到纳什均衡。

2.2 小目标检测头设计

YOLOv8[20]检测网络设计有3个检测头,分别在(80,80),(40,40),(20,20)特征图尺度上进行目标检测。P3/8对应(80,80)的检测特征图,用于检测像素大小在8×8以上的目标;P4/16对应(40,40)的检测特征图,用于检测像素大小在16×16以上的目标;P5/32对应(20,20)的检测特征图,用于检测像素大小在32×32以上的目标。特征图分辨率越大,检测小目标的能力越强。
针对无人艇海上航行场景的小目标检测需求,模型在第15层后对特征图进行采样等处理,将特征图放大至(160,160),同时将获取到的特征图与骨干网络中第2层特征图进行concat融合,获取更大的特征图用于检测像素大小在4×4以上的目标。将YOLOv8模型改进为带特征图,其大小为(160,160)、(80,80)、(40,40)、(20,20)的4个检测头的模型。算法架构如图6所示,红色虚线框为新增小目标检测头。
图6 YOLOv8算法改进架构图

Fig.6 Improved architecture diagram of YOLOv8 algorithm

2.3 损失函数优化

YOLOv8的损失函数由以下3部分组成:分类损失,用于计算类别预测的误差;目标框损失,用于计算预测框与真实框的误差,使用CIoU进行优化;置信度损失,计算目标框的置信度误差,衡量某个预测框是否包含目标。
(1)分类损失
L c l s = - 1 N [ p i l o g ( p ^ i ) + ( 1 - p i ) l o g ( 1 - p ^ i ) ]其中,   L c l s表示分类损失,N为样本数量, p ^ i为由Sigmoid归一化处理的模型预测的类别概率,pi为采用One-hot编码的真实类别标签。YOLOv8为支持多标签分类,采用Sigmoid替代Softmax,通过动态权重分配策略,减少背景区域对分类损失的影响。
(2)目标框损失
L C I o U = I o U - ρ 2 ( b , b ^ ) c 2 - α v其中,   I o U为交并比,   ρ 2 ( b , b ^ )为预测框中心点与真实框中心点的欧几里得距离,   c 2为最小包围盒的对角线距离,v为长宽比损失,α为权重因子。
(3)置信度损失
L o b j = - 1 N [ p i l o g ( p ^ i ) + ( 1 - p i ) l o g ( 1 - p ^ i ) ]其中,   L o b j为置信度损失,   p ^ i为预测的目标置信度。如果有目标,   p i = 1;如果无目标, p i = 0
总损失函数为上述3部分损失按照一定的权重组合,即:

L = λ b o x L C I o U + λ c l s L c l s + λ o b j L o b j

CIoU损失较IoU改善了重叠面积的计算方式,在训练中对不同重叠方式的检测框都有较好的效果,但对平台大幅摇摆导致目标尺度剧烈变化的情况的适应性较差;LCIoU未特别针对极大或极小的目标进行设计,因此对于小目标或超大目标的学习效果不稳定;由于无人艇样本数据的不均衡(如长尾分布)、小目标、密集目标场景等,导致目标漏检多,分类难。由于模型无法获得足够的病态样本支持训练,导致在模型异常环境下检测性能恶化。
Focal Loss[21]主要用于解决目标检测中正负样本不平衡的问题,通过对容易分类的样本降低权重,对难分类的样本增加权重,使得模型更加关注难分类的样本。通过构建CIoU-Focal Loss联合损失函数,同时优化了边界框回归和分类置信度,增强复杂背景下的小目标检测,同时提升小目标检测精度而不降低对大目标的整体检测性能。

F L = - ( 1 - p ^ t ) γ l o g ( p ^ t )

其中,   p ^ t是模型预测样本属于某一类别的概率,   γ是一个调节因子。
则总损失函数设计为

L = λ b o x L C I o U + λ c l s F L + λ o b j L o b j

3 测试和试验结果

3.1 数据集增广

模型从采集的数据图像中筛选数据集,并将数据分为TestA:5 919张正常图片;TestB:5 619张病态图片;TrainA:5 922张正常图片;TrainB:5 619张病态图片。按照风格迁移对抗算法,对图像进行低光照、逆光和水滴、盐渍等风格迁移,效果见图7所示。
图7 风格迁移效果对比图

Fig.7 Comparison diagram of style migration effects

通过Copy-Paste算法、CycleGAN算法,我们将21 309张实景样本进行增广,扩充至41 497张,数据集中各类目标数量统计如表1所示。在使用过程中,我们按照8∶1∶1的比例将数据集分为训练集、验证集和测试集。
表1 目标数量统计表

Tab.1 Statistical table of target quantities

序号 类别 原始标签数量 增广后标签数量
0 货轮 17 281 27 495
1 帆船 1 555 1 943
2 渔船 9 218 11 852
3 漂浮物 2 332 4 283
4 客船 10 423 14 062
5 快艇 14 120 19 447
6 航标 2 378 5 917
7 落水的人 2 749 3 169

3.2 改进模型训练与实验结果

模型训练使用的硬件为Nvidia RTX 4090,软件环境为Windows 10,Pytorch 2.1框架,CUDA 11.2加速度,训练所用参数采用默认值。选用YOLOv5、YOLOv7、YOLOv8 3种目标检测算法与本文改进的算法分别在原始数据集和增广数据集上进行对比测试,主要对比目标检测的平均精度(mAP@0.5)、召回率(R)和帧率(FPS),算法在原始数据集和增广数据集上的测试结果如表2表3所示。
表2 原始数据集测试结果表

Tab.2 Table of test results for the original dataset

指标 YOLOv5 YOLOv7 YOLOv8 本文改进算法
mAP@0.5 85.1% 87.7% 86.2% 89.3%
R 70.5% 69.9% 69.4% 73.1%
FPS 53 46 48 46
表3 增广数据集测试结果表

Tab.3 Table of test results for the augmented dataset

指标 YOLOv5 YOLOv7 YOLOv8 本文改进算法
mAP@0.5 93.6% 94.8% 93.7% 96.2%
R 77.4% 76.6% 76.3% 79.8%
FPS 53 46 49 46
表2表3可以看出,无论在原始数据集或增广数据集,本文设计的算法效果较好。经增广数据集训练,本文设计的算法平均精度和召回率分别提高6.9%和6.7%,可见Copy-Paste算法、CycleGAN算法对数据集增广处理,可有效提高算法的性能。较YOLOv8算法,在增广数据集上,本文算法平均精度和召回率分别提高2.5%和3.5%,且优于其他对比算法,可见增加小目标检测头和损失函数策略有效。
召回率主要反映检测到的目标占所有真实目标的比例,在小目标检测性能方面,测试各算法在漂浮物、航标、落水人3个类别上的召回率,结果见表4表5
表4 原始数据集小目标召回率结果表

Tab.4 Table of small target R results in the original dataset

类别 YOLOv5 YOLOv7 YOLOv8 本文改进算法
漂浮物 83.4% 83.5% 82.1% 84.3%
航标 86.5% 86.8% 86.7% 87%
落水人 66.9% 69.2% 68% 70.5%
表5 增广数据集小目标召回率结果表

Tab.5 Table of small target R results in the augmented dataset

类别 YOLOv5 YOLOv7 YOLOv8 本文改进算法
漂浮物 85.9% 85.6% 84.4% 86.7%
航标 88.4% 89% 87.5% 88.9%
落水人 69.1% 71.7% 70.5% 72.9%
表4表5可以看出,本文算法在小目标检测方面表现较好,通过数据增广,小目标检测召回率指标平均提升了2.14%。在增广数据集上,较YOLOv8,3类小目标召回率分别提升了2.3%、1.4%和2.4%,可见,本文设计的方法对小目标的检测效果有提升。
YOLOv8和本文算法部署在实装无人艇上,检测直观效果对比如图8所示。
图8 YOLOv8与改进算法测试结果对比图

Fig.8 Comparison diagram of test results between YOLOv8 and the improved algorithm

从对比图可以看出,本文改进的算法保留了YOLOv8算法对常规目标的检测性能,同时对小目标较为敏感,可检测出远处小目标,可有效提升目标的发现距离。

4 结束语

本文针对无人艇侧视视角导致的数据特征局部化和深度方向形变,引入Copy-Paste算法生成目标不同角度的样本数据;针对雨雾、镜头水滴和盐渍等非正常环境下图像样本较少的情况,引入基于CycleGAN的非配对图像风格迁移算法,有效扩充了数据集中低光照、逆光、镜头盐渍、水滴等情况的数据。本文通过不同算法在增广前后数据集上的对比测试,算法平均精度平均提升7.5%,召回率平均提高6.8%。针对海上目标尺度变化跨度大,极大极小目标并存的情况,基于YOLOv8算法模型增加小目标专用检测头和优化损失函数,优化模型较YOLOv8,对漂浮物、航标和落水人员测试,召回率分别提升了2.3%、1.4%和2.4%。本文改进的算法对小目标较为敏感,有效提升了目标发现距离。
[1]
朱健楠, 虞梦苓, 杨益新. 无人水面艇感知技术发展综述[J]. 哈尔滨工程大学学报, 2020, 41(10): 1 486-1 492.

ZHU J N, YU M L, YANG Y X. Overview of development of unmanned-surface-vehicle sensing technology[J]. Journal of Harbin Engineering University, 2020, 41(10): 1 486-1 492.

[2]
Freund, Yoav, Robert E S. A decision-theoretic generalization of on-line learning and an application to boosting[J]. Journal of Computer and System Sciences, 1997, 55(1):119-139.

[3]
N. Dalal, B. Triggs. Histograms of oriented gradients for human detection[C]// In Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR 2005),Shanghai, 2005:886-893.

[4]
Lowe, David G. Distinctive image features from scale-invariant keypoints[J]. International journal of computer vision, 2004, 60(2): 91-110.

[5]
A. Krizhevsky, I. Sutskever, G. E. Hinton. Imagenet classification with deep convolutional neural networks[J]. Advances in Neural Information Processing Systems, 2012(5): 1 097-1 105.

[6]
李耀琦, 宗富强, 杨利斌. 基于深度学习的目标检测算法概述[J]. 兵器装备工程学报, 2023, 44(S1): 414-421.

LI Y Q, ZONG F Q, YANG L B. An overview of object detection algorithms based on deep learning[J]. Journal of Ordnance Equipment Engineering, 2023, 44(S1): 414-421.

[7]
J. Redmon, S. Divvala, R. Girshick, et al. You only look once: unified, real-time object detection[C]// In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), Beijing, 2016:779-788.

[8]
Y. Tian, Q. Ye, D. Doermann.YOLOv12:attention-centric real-time object detectors[J/OL]. arXiv preprint, arXiv: 2502.12 524,2 025.

[9]
程亮, 杨渊, 张云飞, 等. 面向无人艇智能感知的水上目标识别算法研究[J]. 电子测量与仪器学报, 2021, 35(9): 99-104.

CHENG L, YANG Y, ZHANG Y F, et al. Research on water target recognition algorithm for unmanned surface vessel[J]. Journal of Electronic Measurement and Instrumentation, 2021, 35(9): 99-104.

[10]
徐海彬, 刘畅, 田建东, 等. 基于视觉和定位系统的无人艇自主对接系统[J]. 计算机工程与设计, 2021, 42(9): 2 606-2 613.

XU H B, LIU C, TIAN J D, et al. Autonomous docking system for USV based on vision and position system[J]. Computer Engineering and Design, 2021, 42(9): 2 606-2 613.

[11]
朱旭芳, 黎奥丰, 夏家伟. 基于信息融合的无人艇船舶检测与跟踪[J]. 海军工程大学学报, 2022, 34(5): 20-26.

ZHU X F, LI A F, XIA J W. Detection and tracking algorithm of ships based on information fusion for unmanned surface vessel[J]. Journal of Naval University of Engineering, 2022, 34(5): 20-26.

[12]
郭海艳, 程亮, 杨春利, 等. 面向水面无人艇的目标检测与船舶分类系统研究[J]. 中国测试, 2023, 49(6): 114-121.

GUO H Y, CHENG L, YANG C L, et al. Research on target detection and ship classification system for unmanned surface vessels[J]. China Measurement & Test, 2023, 49(6): 114-121.

[13]
S. Tang, S. Zhang, Y. Fang. HIC-YOLOv5: improved YOLOv5 for small object detection[C]// In Proceedings of the IEEE International Conference on Robotics and Automation (ICRA), Shenzhen, 2024:6 614-6 619.

[14]
左震, 郭润泽, 孙备, 等. 海面无人艇对舰船目标的细粒度检测方法[J]. 仪器仪表学报, 2024, 45(12): 221-233.

ZUO Z, GUO R Z, SUN B, et al. Fine-grained detection of ship objects by unmanned surface vehicles[J]. Chinese Journal of Scientific Instrument, 2024, 45(12): 221-233.

[15]
张发枝, 何佳洲, 胡剑秋, 等. 基于单目视觉的无人艇海面目标实时测距方法[J]. 舰船科学技术, 2024, 46(13): 126-131.

ZHANG F Z, HE J Z, HU J Q, et al. A real-time ranging method for USV sea surface targets based on monocular vision[J]. Ship Science and Technology, 2024, 46(13): 126-131.

[16]
S.M. Shaqib, A. P. Alo, S. S. Ramit, et al. Vehicle speed detection system utilizing YOLOv8:enhancing road safety and traffic management for metropolitan areas[J/OL]. arXiv preprint, arXiv:2406.07710,2024.

[17]
潘玮, 韦超, 钱春雨, 等. 面向无人机视角下小目标检测的YOLOv8s改进模型[J]. 计算机工程与应用, 2024, 60(9): 142-150.

DOI

PAN W, WEI C, QIAN C Y, et al. Improved YOLOv8s model for small object detection from perspective of drones[J]. Computer Engineering and Applications, 2024, 60(9): 142-150.

DOI

[18]
Y. Bai, D. CHEN, Q. Li, et al. Bidirectional copy-paste for semi-supervised medical image segmentation[C]// In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, Nanjing, 2003.

[19]
刘航, 李明, 李莉, 等. 基于生成对抗网络的图像风格迁移[J]. 南京信息工程大学学报(自然科学版), 2023, 15(5): 514-523.

LIU H, LI M, LI L, et al. Image style transfer based on generative adversarial network[J]. Journal of Nanjing University of Information Science & Technology (Natural Science Edition), 2023, 15(5): 514-523.

[20]
M. Yaseen.What is yolov 8:an in-depth exploration of the internal features of the next-generation object detector[J/OL]. arxiv preprint, arXiv:2 408.15 857,2 024.

[21]
T., Y. Lin,P. Goyal Ross. Girshick, et al. Focal loss for dense object detection[C]// In Proceedings of the IEEE International Conference on Computer Vision (ICCV), Beijing, 2017:2 999-3 007.

文章导航

/