中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
Intelligent Information Fusion

Research on trajectory hierarchical classification based on deep learning networks

  • WANG Yifan ,
  • JI Linna ,
  • YANG Fengbao
Expand
  • North University of China,Taiyuan 030000, China

Received date: 2024-09-27

  Revised date: 2024-12-11

  Online published: 2025-03-27

Abstract

In response to the issue that existing trajectory classification methods fail to fully consider the time series features and spatial structure features of trajectories, leading to a decline in classification accuracy, this paper proposes a trajectory hierarchical classification method based on deep learning networks. First, ship trajectories are transformed into image layers, and a trajectory image layer classification model based on the Swin-Transformer network is constructed. Next, for the trajectory sequence layer, a multi-dimensional information-based trajectory compression algorithm is utilized to optimize the input of trajectory sequences, and a trajectory sequence layer classification model based on the Gained-Transformer-Network deep learning network is developed. At last, a confidence-based fusion layer trajectory classification model is established to improve the accuracy of layered trajectory classification. Experimental validation shows an average classification accuracy of 90%, with the performance of the ensemble classifier improving by an average of 11% compared to other single classifiers, and an average F1 score of 0.82. The results indicate that the newly proposed method and the new ensemble classifier demonstrate good classification effectiveness for ship trajectories.

Cite this article

WANG Yifan , JI Linna , YANG Fengbao . Research on trajectory hierarchical classification based on deep learning networks[J]. Command Control and Simulation, 2025 , 47(2) : 75 -86 . DOI: 10.3969/j.issn.1673-3819.2025.02.010

作为重点目标跟踪和海域态势感知的重要部分,航迹分类识别的研究受到了广泛的关注。航迹分类是一个重要的研究领域。航迹分类有助于提高海域船舶监管,能分析船舶是否存在异常可疑行为,分析历史航迹能够揭示船舶的行为模式,帮助预测未来行为,从而提升整体态势感知和预警能力。航迹分类可以进一步分析识别船舶行为,加强对船舶的监控[1]。此外,船舶的历史航迹信息包含丰富的船舶活动信息,海上目标航迹分类可以加大海域环境的感知能力,提高重点目标的识别、跟踪精度,分析目标的行为意图,提高战场的态势估计,提高海域的航行安全。
目前,国内外船舶轨迹分类方法的具体应用场景主要包括船舶类型的识别和船舶运动模式的分类,实现过程分为船舶轨迹数据清洗预处理[2]、船舶航迹特征提取[3-5]和航迹分类模型建模[6-7]三个部分。航迹信息量大,地理范围广,丰富的信息量同时带来了很大的冗杂,给船舶分类识别带来了挑战。航迹分类的方法主要包括:(1)机器学习的方法。Chen[8]基于稀疏表示分类算法对AIS船舶轨迹分类, 改进基于Lp-norm 稀疏表示的传统分类模型对船舶运动模式进行分类,实现了对内河航道中的船舶运动模式进行分类。Tang[9]基于OPTICS寻找有序峰改进FOP-OPTICS对子轨迹段进行聚类, 在识别船舶轨迹的整体和局部特征上有明显的优势。(2)人工提取特征和机器学习方法相结合的分类方法。Wang[10]提出一种基于宽度学习系统(BLS)的内河航道船舶轨迹分类算法,利用分段三次Hermite插值法从等时距或等间距两种角度提取特征点以构造轨迹特征矩阵,将其代入训练好的BLS实现船舶轨迹的自动分类。Xu[11]利用随机森林算法,通过提取船舶轨迹的空间地理特征和目标运动特征对船舶类型进行分类。(3)深度学习网络分类方法:主要包括基于船舶航迹图以及海域环境图分类网络、基于船舶轨迹的时序特性与神经网络相结合来实现分类。Chen[12]提出了一种新的CNN-SMMC架构对船舶进行分类。有学者结合长短时记忆网络(long short-term memory,LSTM)和卷积神经网络(convolutional neural networks,CNN)建立了以速度、加速度、航向和曲率为特征的混合分类模型,采用CNN提取轨迹数据的空间特征、LSTM提取轨迹数据的时间特征[13-16]。Duan[17]提出了一种半监督深度学习方法,以整合未标记数据的知识进行船舶轨迹分类。GUO[18]等船舶轨迹经纬度数据转换为船舶轨迹图像数据,使用ResNet残差网络构建深度卷积神经网络船舶轨迹分类模型。
但目前大多数研究集中在固定海域的船舶运动状态,而针对具有空间差异以及运动特征差异的航迹分类的研究较少。此外,轨迹分类研究主要将轨迹转换为图像用于分类,然后运行机器学习进行建模以判断新的轨迹。然而,该方法没有考虑航迹数据序列的变化特性,导致航迹数据的利用和分析不足。
针对上述问题,本文提出了基于深度学习网络的航迹分层分类方法,对船舶航迹所属的船舶类别进行分类。首先,将经纬度坐标按尺度映射到图像像素坐标上,提取船舶航迹数据的空间特征,建立船舶航迹图像数据集。其次,建立了基于深度学习的船舶航迹分类模型,使用Swin-Transformer模型进行训练,利用改进的DP(Douglas-Peucker)算法对航迹数据进行压缩处理,以提高模型的训练效果,使用GTN(gained transformer network)网络进行训练。最后利用改进的D-S(Dempster/Shafer)证据理论对分类结果融合处理。主要贡献为提出了一种基于深度学习网络的航迹分层分类模型算法,实现了对船舶航迹所属船舶类别的分类和识别。

1 基于深度学习网络的航迹分层分类方法

本研究旨在提出一种基于深度学习网络的分层分类模型实现对大时空差异的航迹数据进行分类。为充分研究航迹的时间序列特征与空间结构特征,本文通过建立分层分类模型,从多角度的信息入手,提高航迹数据分类的准确性和鲁棒性,提升模型的计算效率。首先,排除AIS航迹异常数据点,对AIS航迹数据进行处理,包括消除重复点和航迹插值。模型分为三层。(1)图像层:通过航迹序列建立航迹的图像数据,根据Swin-Transformer深度学习算法,使用swinv2预训练模型训练好航迹分类模型进行分类识别,有效捕捉航迹的空间结构特征。这种方法使得模型能够识别复杂的模式和细节;(2)序列层:通过对原始的航机序列数据处理,对于冗杂的航迹序列,利用改进的DP算法对航迹进行压缩处理,对GTN网络的序列输入做精细化处理,利用GTN深度学习网络对航迹序列分类识别,更好地捕捉时间序列中的动态变化和趋势,减少冗余信息对分类结果的干扰;(3)融合层:通过建立基于置信度理论的融合层融合多分类的结果,有助于综合不同特征的优势,提升最终分类结果的准确性和可靠性。拟研究方法框架如图1所示。
图1 研究方法框架

Fig.1 Research Method Framework

1.1 基于Swin-Transformer航迹图像层分类

Swin-Transformer是基于Transformer模型的一种图像分类模型,Transformer主要应用在自然语言处理(NLP)领域,主要包括编码器(encoder)与解码器(decoder)两个部分,每部分由多个相同的层构成。注意力机制(attention mechanism)作为Transformer的核心之一,捕捉输入序列中不同位置之间的关系,使得其能够有效地获得输入序列中的长距离依赖关系,得到与之对应的输出。Swin-Transformer与Transformer的结构类似,由分层窗口注意力机制和阶段间连接的Transformer编码器块组成,其使用移位窗口(shift window)计算注意力,移位窗口方法通过将自注意力计算限制在不重叠的局部窗口的同时,引入跨窗口连接来提高计算效率。 Swin-Transformer 通过其层次化和窗口化的注意力机制,能够有效地处理这种长距离依赖关系,提升分类性能。
Swin-Transformer体系如图2所示[19],图2(a)为Swin-Transformer的结构,它首先将输入的航迹图像分割成不重叠的图像块,经由线性嵌入层将图像特征投影到任意维度,而后经由顺序排列的Swin-Transformer块与块合并层组成的阶段层,为了产生分层表示,随着网络阶段的深入,合并层的图像块的数量将会减少,H为原始图像的高度,W为原始图像的宽度,C为自定义的特征表示维度;图2(b)为两个连续的Swin-Transformer块,一个Swin-Transformer模块由一个基于移动窗口的自我关注模块(MSA)组成,紧接着是一个两层的多层感知器(MLP),其间带有GELU非线性。在每个MSA模块和每个MLP之前应用LayerNorm(LN)层,并且在每个块之后应用剩余的连接。Swin-Transformer的模块化结构和可扩展性,使其能够灵活适应不同类型和大小的航迹图像数据,连续的Swin-Transformer块使用移位窗口的划分方法,计算如下:
z ˙ l=W-MSA(LN(zl-1))+zl-1zl=MLP(LN( z ˙ l))+ z ˙ l z ˙ l + 1=SW-MSA(LN(zl))+zlzl+1=MLP(LN( z ˙ l + 1))+ z ˙ l + 1
其中, Z ˙ lZl分别表示块1的(S)W-MSA模块和MLP模块的输出特征。
图2 Swin-Transformer体系

Fig.2 Swin-Transformer System

与Transformer不同的是,由于Swin-Transformer使用的是移位窗口的模块,在计算自注意力时,采用相对位置编码,其自注意力计算公式为
Attention(Q,K,V)=Softmax Q K T d + BV
其中,Q,K,V R M 2 × d是查询矩阵、键矩阵和值矩阵,d是查询/键维度,M2是窗口中的补丁的数量。BR(2M-1)×(2M-1)是具有(2M-1)个补丁的注意力窗口的相对位置偏移矩阵。

1.2 基于GTN网络的航迹序列层分类

本节介绍了基于Transformer的深度学习方法,用于从轨迹序列数据中对船舶的类别进行分类,首先利用基于多维信息的航迹压缩算法优化Transformer网络的输入,其次使用Gained-Transformer Network网络实现对航迹的分类。

1.2.1 基于多维信息的航迹压缩算法

AIS航迹数据冗杂,航迹序列样本长度不一致,为了优化GTN网络的输入,本文使用改进的DP算法对航迹进行压缩处理,传统的DP算法只考虑了航迹点与起终点连线的距离[20-21],而忽略了航迹数据中的其他维度信息,本节将速度、航向角差值加入航迹压缩的阈值维度,并设置压缩比例优化航迹序列数据,压缩前后的航迹点数量比为Nn,改进的DP算法结构如图3所示,各阈值参数设置如表1所示。
图3 改进的DP压缩算法结构图

Fig.3 Structure diagram of improved DP compression algorithm

表1 DP算法阈值设置

Tab.1 DP algorithm threshold settings

参数 阈值
距离阈值dth 900
速度阈值Vth 0.1
航向角差值阈值Hth 30
经过预处理的待压缩航迹,计算起始点中间所有航迹点与起始点连线AB的距离,并找出最大值dmax以及对应的航迹点 P d m a x,计算起始点中间所有航迹点与前后航迹点的距离,依据时间戳差值求该时域内速度均值,并找出速度最大值Vmax以及对应的航迹点 P V m a x,计算起始点中间所有航迹点航向角与前后航向角的差值,并找出差值最大值Hmax以及对应的航迹点 P H m a x,分别设置距离阈值dth、速度阈值Vth、航向角阈值Hth,若距离最大值、速度最大值、航向角差值最大值三维信息任意一个大于对应的阈值,则将待压缩航迹以最大值对应点分为两段迭代,进行航迹压缩,若三维信息都不满足阈值,则按压缩比例舍去该航迹的部分中间航迹点。
DP压缩算法如图3所示,压缩前航迹如图4(a)所示,航迹点个数为36 082个,压缩后航迹图如图4(b)(c)(d)所示,航迹点个数分别为1 697个、2 702个、3 685个,压缩比例分别为21∶1、13∶1、9.7∶1。
图4 DP算法压缩前后航迹示意图

Fig.4 Schematic diagram of the trajectory before and after compression using the DP algorithm

图4可以看出,改进的DP算法可以有效地将航迹点个数压缩至预计的航迹点个数,且保留原始航迹特征,进一步优化了后续深度学习网络的输入。

1.2.2 基于Gated-Transformer-Network的航迹分类网络结构

GTN(Gated-Transformer-Network)是基于Transformer的多维时间序列分类网络,GTN网络结构如图5所示[22], 航迹序列往往涉及时间和空间上的复杂关系。GTN 使用注意力机制和Transformer的自注意力机制,能够有效地捕捉到序列中长距离的依赖关系,不受序列长度限制,从而更好地建模航迹序列中的时空动态特征。GTN网络可以更好地捕捉航迹序列信息多个维度的通道特征。航迹序列可能包含不同尺度和时间尺度上的特征。GTN 可以通过多头注意力机制和层次化表示学习,有效地整合和利用不同尺度的特征信息,提升分类准确性。
图5 GTN网络结构图

Fig.5 GTN network structure diagram

GTN网络建立了双塔Transformer结构,其中每个塔中的编码器通过注意和掩码捕获时间和空间的相关性,与原始Transformer不同的是,GTN对于连续的时间序列数据,通过加入了一个非线性激活tanh代替线性投影将嵌入层改为全连接层。通过加入门控单元,在获得每个塔的输出后,通过级联将它们合并为向量,然后进行线性投影,得到h。如公式(3) 所示,在Softmax函数之后,门控权重计算为g1g2。然后,每个权重对应相应塔的输出,合并后为最终特征向量。
$\begin{array}{l}\boldsymbol{h}=W \cdot \operatorname{Concat}(C, S)+b \\g_{1}, g_{2}=\operatorname{Softmax}(h) \\\boldsymbol{y}=\operatorname{Concat}\left(C \cdot g_{1}, S \cdot g_{2}\right)\end{array}$

1.3 基于置信度的航迹融合层分类

D-S证据理论融合用于处理不确定性和不完全信息的推理方法,航迹的图像层与序列层属于不同的维度,不同层自身存在不确定性,通过对不同层分配基本的概率分配函数BMA,综合考虑它们之间的冲突程度,可以得到对航迹类别的综合信任程度,从而提高航迹分类的准确性。
确定度通过一定的规则对证据体本身特性进行量化,反映了概率分配函数的聚集程度以及证据体对于自身BPA的分配认可度。确定度越高,聚集程度和分配认可度也越高。证据体Ei的自身确定度ci能够按照以下公式计算得到:
ci= j = 1 M ( m i ( A j ) ) 2 - 1 M 1 - 1 M
其中,M表示辨识框架Θ中焦元A对应的事件个数,i表示辨识框架的第i条证据体。
根据公式(4)分别计算N个证据体的自身确定度,我们可以得到N个自身确定度值,并用向量形式表示,得到该系统的证据体的自身确定度向量C,如下:
$\boldsymbol{C}=\left[c_{1}, c_{2}, \cdots, c_{N}\right]$
本文利用分类模型的分类准确率作为证据体的确信度,由于GTN网络易陷入局部最优,其自身支持度保留原始的30%,通过计算,得到相对可信度向量Rel=[Rel1,Rel2,…,RelN],为了进一步降低可信度较差的证据对融合的影响,对相对可信度向量进行判断,如公式(6)所示。
ω i = 0     R e l i R e l ¯ ω i = R e l i   R e l i > R e l ¯
其中, R e l ¯表示可信度阈值,其表示为 R e l ¯= i = 1 NReli/ N ( N + 1 )
修正后的权重因子向量为ω=[ω1,ω2,…,ωN],并归一化处理。
ωi= ω i i = 1 N ω i
在多证据体的辨识框架中,可信度作为证据体的修正系数,将对应的证据体的BPA进行加权平均,得到修正后的证据BPA函数m'
m'= i = 1 Nωi×mi
随后对修正后的BPA函数进行(n-1)次DS融合,得到融合结果m,判定输出目标类别。

2 实验结果与分析

在本章,依据AIS航迹数据集做了基于Swin-Transformer的航迹图像数据分类与基于改进Transformer网络的航迹序列数据分类实验研究,并对结果进行F1得分分析,验证分类模型的效果。

2.1 数据集

本文的数据集源于“金海豚”杯竞赛发布于《雷达学报》的航迹分类科目专用数据集[23],该数据集由全球开源AIS数据整理制备得到,该数据集包含两大类航迹数据,两大类细分为14小类数据集,两大类标签为0和1,其中细分14类标签为0~13,每条航迹包含数量不等的航迹点,航迹点包括时间戳、经度、纬度、速度、航向角信息。
本文选取该训练数据集的5类数据进行研究,二分类标签以及细分类标签如表2所示,在对原始航迹进行航迹预处理后,首先对时域跨度大的样本进行航迹分割,其次为不影响航迹的时域空间结构,使用改进的DP算法对预处理后的航迹按不同压缩比例进行压缩,以此优化数据样本。
表2 预处理后的数据集结构及样本数量

Tab.2 Preprocessed dataset structure and sample size

细分类(14分类)标签 二分类标签 样本数量/个
0 0 234
1 0 186
2 0 238
3 0 161
7 0 170

2.2 实验平台

本实验使用的平台硬件规格为CPU为Intel Xeon W-2245@3.9 GHz, 内存为32 GB,GPU为RTXA2000,网络模型搭建以及训练采用深度学习平台Pytorch 1.8.0、Keras 2.11.0、timm 0.4.12以及opencv-python 4.4.0.46。

2.3 实验评价指标

本文使用F1得分作为本次实验的评价指标,F1分数(F1 Score)是统计学中用来衡量分类模型精确度的一种指标,同时兼顾了分类模型的准确率和召回率。其中,将样本总量具体分为TP(真正,true positive)表示预测为正的正例;FP(假正,false positive)表示预测为正的负例;TN(真负,true negative)表示预测为负的正例;FN(假负,false negative)表示预测为负的负例。F1得分是精确率(precision)和召回率(recall)的调和平均数。
其中,Pre精确率计算公式为
Pre= T P T P + F P
召回率Re计算公式为
Re= T P T P + F N
具体计算公式如下:
F1= 2 * P r e * R e P r e + R e

2.4 基于Swin-Transformer网络的图像层航迹数据分类实验

本节使用Swin-Transformer网络对航迹的图像数据进行分类,采用前文所述训练数据集中的5类航迹数据进行分类,并对结果进行分析。

2.4.1 航迹数据预处理

基于航迹图像数据对航迹进行分类,由于使用的航迹信息不属于同一片区域,经纬度差异较大,为避免背景海岛图像信息对航迹分类训练的影响,本文基于航迹信息的经纬度最值,使用墨卡托(Mercator)投影计算经纬度在平面坐标的投影点坐标,公式(12)介绍了将经纬度点转换为平面坐标点的计算公式,其中,lon为该点的经度信息,lan为该点的纬度信息。制作图像数据集时舍去原图像背景的海岛信息,仅保留航迹点线图。每张船舶轨迹图像的分辨率为224*224。
$\mathrm{x}=\operatorname{lon} \mathrm{y}=\ln (\tan (\pi / 4+\operatorname{lan} / 2))$
航迹图像数据集总量为989张,其中训练集、验证集、测试集各占0.8、0.1、0.1。

2.4.2 航迹数据分类实验

本实验将航迹划分为五个类别,基于Swin-Transformer网络,模型的输入图层尺寸参数设置为224*224*3,将小型批处理大小设置为 64,并将输出图层类别分别设置为5。使用swinv2-tiny预训练模型,epoch设置为300,最大学习率为 1.25e-3,最小学习率为 1.25e-5。训练集LOSS收敛曲线如图6(a)所示,测试集LOSS收敛曲线如图6(b)所示。准确率收敛曲线如图7(a)所示,最大准确率收敛曲线如图7(b)所示。
图6 Loss收敛曲线

Fig.6 Loss convergence curve

图7 准确率收敛曲线

Fig.7 Accuracy convergence curve

本文进行了收敛测试,以找到一个良好的基线学习率来训练图像层航迹数据分类的模型。图显示了使用预先训练的swin-v2权重的模型在不同学习率下的200个训练周期的结果。在这个实验中,本文使用了一个恒定的学习速率计划。在5e-3和1e-2的学习速率下,Swin-Transformer很快都达到了80%以上的验证准确度,收敛率在 0.75左右,最终验证集准确率稳定在87%。
实验数据选取与测试使用数据集相同的五类航迹信息。为验证模型的有效性,本文设置3组实验,每组在5类数据中各随机选取50条航迹数据作为本次实验的数据集。图像层航迹分类准确率如表3所示,每类的F1得分及均值如表4所示,从图8中可以看出,基于图像层航迹数据分类的F1得分总均值为0.649 2,在验证集87%的准确率下达到了F1得分良好的效果,验证了基于Swin-Transformer网络的图像层航迹数据分类的有效性。
表3 图像层航迹分类准确率

Tab.3 Accuracy of image layer trajectory classification

类别 组1 组2 组3 平均准确率
A 84% 84% 84% 84%
B 54% 54% 58% 55.3%
C 90% 90% 86% 88.7%
D 84% 84% 86% 84.7%
E 94% 94% 98% 95.3%
表4 图像层航迹数据分类的F1得分

Tab.4 F1 score for image layer trajectory data classification

类别 组1 组2 组3 均值
A 0.71 0.641 0.656 0.669
B 0.574 0.535 0.569 0.559
C 0.692 0.657 0.662 0.67
D 0.677 0.657 0.662 0.665
E 0.7 0.659 0.69 0.683
均值 0.670 6 0.629 8 0.647 8 0.649 2
图8 图像层航迹数据分类的F1分数

Fig.8 F1 score for image layer trajectory data classification

2.5 基于Transformer网络的序列层航迹数据分类实验

本节使用Transformer网络对航迹的序列数据进行分类,实验数据选取训练数据集中的五类航迹信息,并对结果进行分析。

2.5.1 航迹数据预处理

航迹序列数据训练保留航迹数据中全部维度信息,由于数据集中航迹序列数据的航迹点个数不同,相差较大,本文使用改进的DP算法将航迹序列的航迹点个数压缩到1 500个,对于不足1 500个航迹点的航迹序列,使用三次样条法对航迹数据进行插值,以此优化Transformer网络的输入。航迹序列数据集中训练集、验证集、测试集各占0.5、0.3、0.2。

2.5.2 实验与结果分析

实验分为五类,基于Transformer网络,将小型批处理大小设置为 4,并将输出序列类别设置为5。epoch设置为100,最大学习率为 1.25e-4,最小学习率为 1.25e-5。图9显示了本次实验训练Loss收敛曲线,loss收敛于0.53左右。图10显示了深度学习实验的结果,训练集准确率最高为89.56%,测试集准确率最高为80.2%。
图9 Loss收敛曲线图

Fig.9 Loss convergence curve

图10 训练集与验证集准确率收敛曲线图

Fig.10 Convergence curves of accuracy for training and validation sets

图10显示了使用预先训练的模型在不同学习率下的100个训练周期的结果。在这个实验中,我们使用了一个恒定的学习速率计划。在5e-3和1e-2的学习速率下,很快都达到了70%以上的验证准确度,收敛率在0.75左右,最终验证集准确率稳定在78%。由于GTN网络存在过拟合的现象,在后续融合时,基于GTN网络的置信度比重相较于基于Swin-Transformer网络,应当降低。
实验数据选取与测试用数据集相同的五类航迹信息,为验证模型的有效性,本文设置3组实验,每组在5类数据中各随机选取50条航迹数据作为本次实验的数据集。序列层航迹分类准确率如表5所示,每类的F1得分及均值如表6所示,从图11中可以看出,基于序列层航迹数据分类的F1得分总均值为0.6,在验证集78%的准确率下达到了F1得分良好的效果,验证了基于Transformer网络的序列层航迹数据分类的有效性。
表5 序列层航迹分类准确率

Tab.5 Accuracy of sequence layer trajectory classification

类别 组1 组2 组3 平均准确率
A 74% 74% 60% 69.3%
B 60% 60% 52% 57.3%
C 80% 80% 70% 76.7%
D 100% 80% 94% 91.3%
E 100% 100% 100% 100%
表6 序列层航迹数据分类的F1得分

Tab.6 F1 score for sequence layer trajectory data classification

组1 组2 组3 均值
A 0.632 0.583 0.492 0.569
B 0.583 0.531 0.456 0.523
C 0.650 0.602 0.53 0.594
D 0.699 0.602 0.603 0.635
E 0.699 0.654 0.617 0.657
均值 0.653 0.594 0.54 0.6
图11 序列层航迹数据分类的F1分数

Fig.11 F1 score for sequence layer trajectory data classification

2.6 基于置信度的D-S证据理论融合层航迹分类实验

在本节,通过随机选取多组测试集验证基于D-S证据理论融合实验,融合基于Swin-Transformer模型与基于GTN网络模型的分类结果,实验结果表明融合有效地提高了分类结果的准确率。

2.6.1 融合测试数据集

实验数据选取测试数据集中的相同的五类航迹信息,为验证模型的有效性,在5类数据中各随机选取50条航迹数据作为本次实验的数据集。

2.6.2 融合实验与结果分析

为验证算法的有效性,本节融合实验在5类航迹数据中随机选取了3组数据,作为本节实验的样本,融合层航迹分类准确率如表7所示,F1得分如表8所示,宏观F1得分达到了0.82的优秀评分,图12为融合层对不同类F1得分更清晰和直观的观察。图13为图像层、序列层与融合层F1得分对比。在5类任务中,融合层都表现出优秀的F1得分,证明了融合层航迹数据分类在图像层与序列层航迹分类的基础上,提高了分类算法的可靠性。
表7 融合层航迹分类准确率

Tab.7 Accuracy of fusion layer trajectory classification

类别 组1 组2 组3 平均准确率
A 98% 92% 76% 88.7%
B 72% 78% 62% 70.7%
C 96% 96% 82% 91.3%
D 100% 100% 98% 99.3%
E 100% 100% 100% 100%
表8 融合层航迹数据分类的F1得分

Tab.8 F1 score for fusion layer trajectory data classification

组1 组2 组3 均值
A 0.852 0.844 0.806 0.834
B 0.809 0.822 0.702 0.778
C 0.85 0.85 0.767 0.822
D 0.855 0.855 0.805 0.838
E 0.855 0.855 0.810 0.84
均值 0.84 0.85 0.778 0.822
图12 融合层航迹数据分类的F1分数

Fig.12 F1 score for fusion layer trajectory data classification

图13 分层航迹数据分类的F1分数

Fig.13 F1 score for fusion layer trajectory data classification

融合结果如表9所示,在单分类结果为55.3%的低准确率时,融合后准确率依然有所提升,达到了70.7%的准确率。由图14可以看到,融合层航迹数据分类在图像层与序列层航迹分类的基础上有效提升了航迹数据分类的准确率,验证了基于改进D-S证据理论的融合分类算法,相较于单种分类算法,有效提升了航迹分类识别的准确率,提高了航迹分类模型鲁棒性。
表9 融合结果

Tab.9 Fusion results

图像层分类
准确率
序列层分类
准确率
融合层分类
准确率
A 84.0% 69.3% 88.7%
B 55.3% 57.3% 70.7%
C 82.4% 76.7% 91.3%
D 88.7% 91.3% 99.3%
E 95.3% 100% 100%
图14 融合结果

Fig.14 Fusion results

2.6.3 对比试验

为了进一步验证船舶轨迹分类网络模型的分类能力,我们选择了LSTM模型和CNN网络模型,进行对比分析。
其中,LSTM模型结构如图15所示,Ct-1为上一时刻的单元状态,Ct为当前时刻的单元状态,ht-1为上一时刻的隐状态,ht为当前时刻的隐状态,Xt为当前的输入,σ为Sigmoid激活函数,其与tanh函数类似,不同之处在于Sigmoid函数值域为(0,1)之间,而tanh是(-1,1)之间。模块① 为遗忘门,控制当前单元状态中有多少信息被保留;模块② 为输入门,控制有多少新的信息被存储在单元状态中;模块③ 为输出门,决定有多少信息从单元状态中输出。这些门使得信息在LSTM中保留更长的时间。
图15 LSTM模型结构图

Fig. 15 LSTM model structure diagram

模型训练为航迹5分类训练,将小型批处理大小设置为 16,输入特征维度为4,并将输出序列类别设置为5。epoch设置为300,隐藏状态大小为128,LSTM层数为2,学习率为 1e-4。
CNN模型结构如图16所示,输入层主要对原始数据进行预处理,卷积层主要提取图像特征,池化层目的是为了减少特征图。池化层夹在连续的卷积层中间,用于压缩数据和参数的量,减小过拟合。全连接层与传统的神经网络神经元连接方式一样,是一个传统的多层感知器,它在输出层使用softmax 激活函数,卷积层和池化层主要得到输入图像的高级特征。完全连接层的目的是利用这些基于训练数据集得到的特征,得到目标图像的类别。
图16 CNN模型结构图

Fig.16 CNN model structure diagram

模型训练为航迹5分类训练,将小型批处理大小设置为32,输出序列类别设置为5。epoch设置为100,卷积核大小为5×5,最大学习率为 1.25e-4,最小学习率为 1.25e-5。
图17为三个模型的验证结果,表10为实验对比,从结果可以看出,对于本文使用的数据集,提出的船舶轨迹分类网络模型达到了91.8%的准确性,高于LSTM网络模型的80.6%的准确性和CNN网络模型的79.3%的准确性,验证了船舶轨迹和航道分类模型在船舶轨迹分类性能上的优越性。
图17 对比实验结果

Fig.17 Comparison of experimental results

表10 多模型平均分类准确率结果

Tab.10 Average classification accuracy results of multiple models

LSTM CNN 本文方法
A 80.7% 81.4% 93.2%
B 79.3% 79.9% 93.1%
C 80.1% 75.1% 87.6%
D 83.4% 79.5% 92.8%
E 79.5% 80.6% 91.8%

3 结束语

本文的主要研究工作可以归纳为以下两点:
(1)针对具有空间差异以及运动特征差异的航迹分类问题,为了提取船舶轨迹的空间特征与时序序列中的长期依赖关系,本文将航迹数据分为图像层航迹数据与序列层航迹数据,为了优化模型的输入,采用改进DP算法压缩航迹,分别利用Swin-Transformer模型与GTN网络模型进行训练,获得良好的实验结果;
(2)提出使用改进的D-S证据理论融合两种模型的分类结果,建立融合层航迹分类模型,提高分类的准确性和鲁棒性。融合结果相较于单种分类结果有了提升,并且高于LSTM网络与CNN网络的分类准确率,验证了本文所提方法在跨时域航迹分类识别上的有效性。
由于此模型建立在完整航迹数据集的基础上,未考虑航迹信息不全的情况,在下一步的工作中,我们将继续优化这个模型,从数据源出发融合图像层与序列层航迹数据,建立深度特征融合的深层网络模型,进一步提高模型的泛化性。
[1]
LUO D, CHEN P, YANG J, et al. A new classification method for ship trajectories based on AIS data[J]. Mar. Sci. Eng., 2023(11):1 646.

[2]
YANG W, AI T, LU W. A method for extracting road boundary information from crowdsourcing vehicle GPS trajectories[J]. Sensors (Basel), 2018, 18(4): E1 261.

[3]
ZHANG Z H, HUANG L, PENG X, et al. Loitering behavior detection and classification of vessel movements based on trajectory shape and Convolutional Neural Networks[J]. Ocean Engineering, 2022(258):11 852.

[4]
TAVAKOLI Y, PEÑA-CASTILLO L, SOARES A. A study on the geometric and kinematic descriptors of trajectories in the classification of ship types[J]. Sensors (Basel), 2022, 22(15): 5 588.

[5]
TU E, ZHANG G, Rachmawati L, et al. Exploiting AIS data for intelligent maritime navigation: a comprehensive survey from data to methodology[J]. IEEE Transactions on Intelligent Transportation Systems, 2018, 19(5): 1 559-1 582.

[6]
宋强, 彭翔宇, 黄仕林, 等. 基于序贯特征提取的无人机与飞鸟目标分类[J]. 信号处理, 2024, 40(5): 839-852.

SONG Q, PENG X Y, HUANG S L, et al. Classification of UAVs and birds using sequential feature extraction[J]. Journal of Signal Processing, 2024, 40(5): 839-852.

[7]
Manjunatha Veerappa, Mathias Anneken, Nadia Burkart, et al. Validation of XAI explanations for multivariate time series classification in the maritime domain[J]. Journal of Computational Science, 2022, 58:10 1539.

[8]
CHEN Z J, XUE J, WU C Z, et al. Classification of vessel motion pattern in inland waterways based on automatic identification system[J]. Ocean Engineering, 2018, 161: 69-76.

[9]
Chunhua Tang, Meiyue Chen, Jiahuan Zhao, et al. A novel ship trajectory clustering method for finding overall and local features of ship trajectories[J]. Ocean Engineering, 2021, 241:110 108.

[10]
王颢程, 左毅, 李铁山, 等. 基于宽度学习系统的内河航道船舶轨迹分类算法[J]. 上海海事大学学报, 2021, 42(3): 91-100.

WANG H C, ZUO Y, LI T S, et al. Classification algorithm of ship trajectory in inland waterways based on broad learning system[J]. Journal of Shanghai Maritime University, 2021, 42(3): 91-100.

[11]
Xu H, Oliveira P, Guedes Soares C, et al. L1 adaptive back stepping control for path-following of under actuated marine surface ships[J]. Eur. J. Control, 2020, 58:357-372.

[12]
CHEN X, LIU Y C, ACHUTHAN K, et al. A ship movement classification based on automatic identification system (AIS) data using convolutional neural network[J]. Ocean Engineering, 2020, 218: 108 182.

[13]
Llerena, Juan Pedro, et al. LSTM vs CNN in real ship trajectory classification[J]. Logic Journal of the IGPL, 2024, 32(1):027.

[14]
Addor N, G Nearing, C Prieto, et al. A ranking of hydrological signatures based on their predictability in space[J]. Water Resources Research, 2018, 54 (11): 8 792-8 812.

[15]
YANG T, WANG X, LIU Z. Ship type recognition based on ship navigating trajectory and convolutional neural network[J]. J. Mar. Sci. Eng., 2022, 10: 84.

[16]
SYED M A B, AHMED I. A CNN-LSTM architecture for marine vessel track association using automatic identification system (AIS) data[J]. Sensors (Basel), 2023, 23(14): 6 400.

[17]
Hongda Duan, Fei Ma, Lixin Miao, et al. A semi-supervised deep learning approach for vessel trajectory classification based on AIS data[J]. Ocean & Coastal Management, 2022,218:106 015.

[18]
GUO T, XIE L. Research on ship trajectory classification based on a deep convolutional neural network[J]. J. Mar. Sci. Eng, 2022, 10:568.

[19]
LIU Z, LIN Y T, CAO Y, et al. Swin transformer: hierarchical vision transformer using shifted windows[EB/OL]. 2021: 2103. 14030. https://arxiv.org/abs/2103.14030v2.

[20]
马苏上, 王泽宇, 刘明剑, 等. 基于特征点筛选的渔船轨迹压缩方法及优化[J]. 渔业现代化, 2023, 50(4): 118-125.

MA S S, WANG Z Y, LIU M J, et al. Trajectory compression method of fishing vessel based on feature point separation[J]. Fishery Modernization, 2023, 50(4): 118-125.

[21]
董路熙, 张烈平, 王文成, 等. 基于DP-PSO的车辆GPS轨迹时空自适应离线压缩算法[J]. 桂林理工大学学报, 2022, 42(4): 977-987.

DONG L X, ZHANG L P, WANG W C, et al. Vehicle GPS trajectory spatio temporal adaptive compression based on DP-PSO Algorithm[J]. Journal of Guilin University of Technology, 2022, 42(4): 977-987.

[22]
LIU M H, REN S Q, MA S Y, et al. Gated transformer networks for multivariate time series classification[EB/OL]. 2021: 2103. 14438. https://arxiv.org/abs/2103.14438v1.

[23]
石敏, 龚诚, 李迅, 等. 海空目标航迹智能分类数据集[EB/OL]. RADAR 数据集. https://radars.ac.cn/web/data/getData?dataType=DatasetintheCompetii,2023.

SHI M, GONG C, LI X, et al. Intelligent classification dataset for sea and air target trajectories[EB/OL]. RADAR dataset. https://radars.ac.cn/web/data/getData?dataType=DatasetintheCompetii,2023.

Outlines

/