中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
Unmanned Combat

A positioning method of unmanned aerial vehicle camera combined with target

  • SUN Gui-xin 1 ,
  • WANG Dong-liang 2 ,
  • LI Qi 2 ,
  • XIAO Yuan 2 ,
  • CAI Zi-lei 2
Expand
  • 1. Unit 91550 of PLA, Dalian 116023
  • 2. Beijing CSSC Systems Engineering Research Institute, Beijing 100094, China

Received date: 2022-05-31

  Revised date: 2022-07-11

  Online published: 2023-04-17

Abstract

In order to test the accuracy of the weapon hitting the target, it is very important to locate and measure the spatial coordinates of the falling point target. Aiming at the needs of space coordinate positioning and measurement of targets falling into the sea/ground plane, this paper studies a positioning method of UAV camera combined with target, and uses the principle of homography transformation to calculate the space coordinates of targets. The influence of pixel error on the positioning method is simulated by Monte Carlo method, and the shooting attitude range meeting the measurement requirements is determined by simulation. The results show that the positioning method of UAV camera combined with target has high accuracy, which can meet the needs of landing target positioning and measurement.

Cite this article

SUN Gui-xin , WANG Dong-liang , LI Qi , XIAO Yuan , CAI Zi-lei . A positioning method of unmanned aerial vehicle camera combined with target[J]. Command Control and Simulation, 2023 , 45(2) : 1 -8 . DOI: 10.3969/j.issn.1673-3819.2023.02.001

对落点目标进行定位测量是为了测试武器对目标打击的精确程度,是武器试验中的重要环节。在进行相关武器试验时,通常会使用多种方法对最终的落点目标进行定位测量,并与最初设定点比较,多次试验获得的数据可以用于校准武器的功能参数,从而提高武器的打击准确度[1]。因此,研究能够快捷而准确地对落点目标进行定位测量的系统,具有重要的国防军事价值。
目前,国内外对落点目标进行定位主要有两类方法:一类是通过测量或计算弹道,并结合地理信息模型,间接获得落点的空间坐标;另一种是通过声学、光学、电磁学等原理所设计的传感器直接测量落点。前者主要用于导弹防御拦截等场景,后者则主要用于武器试验等场景。
中北大学的曾凡桥[2]通过弹道学理论建立弹体刚体模型和运动方程,并结合全球定位导航系统获取弹体部分运动轨迹,从而计算出弹体落点的空间坐标。浙江大学的杨萌[3]采用了多个无人机集群绕目标飞行,通过无人机上的光学传感器采集落点目标的角度数据,使用测向交叉定位的方法,计算出落点目标的空间坐标。天津大学的于潼[4]针对陆上靶场落点目标,通过相机结合数字高程模型(Digital Elevation Model),使用类似于单目结构光测量原理,计算出落点目标的空间坐标。杨百翰大学的Beard R W[5]等人通过小型固定翼无人机搭载的云台相机采集目标图像,通过无人机位姿、相机姿态以及目标像素坐标,解算地面目标的空间坐标。海军工程大学徐义桂[6]等人利用垂直起降的固定翼无人机搭载的相机采集图像,结合无人机姿态、相机及吊舱姿态、相机参数等数据,通过相机模型及坐标系之间的转换,计算出打击目标和靶标的空间坐标,并通过在试验前测量靶标的空间坐标,来修正最后计算目标的空间坐标。中国人民解放军92941部队的李晓冰[7]等人使用连接在靶船上的多旋翼无人机采集图像,利用预先安装在靶船上的标志点,结合透视变换,计算落点目标的空间坐标。中北大学的刘颖[8]通过在海上靶场试验区域布置声波信号采集系统,检测落点目标到各个采集系统的到达时间差,计算出落点目标的空间坐标。
本文的主要研究目标是对落入海平面或地平面的目标物体的空间坐标进行定位测量。在综合了国内外对该场景目标定位测量研究的基础上,研究设计了一种无人机相机结合靶标的定位方法。该方法需要在目标测量区域放置4个球状物体作为靶标,通过无人机搭载的云台相机采集目标和靶标的图像,利用GPS模块测量靶标的空间坐标,将其坐标经过转换后,根据单应变换求解出目标的空间坐标。

1 无人机相机结合靶标定位

1.1 定位原理

无人机相机结合靶标定位主要是利用相机拍摄到靶标的图像平面和靶标在地理空间所处于的海/地平面之间的单应性,进行目标的定位解算,如图1所示。单应性(Homography)是指同一平面的不同投影平面之间两幅图像间的线性可逆的映射[9]
图1 无人机相机结合靶标定位原理示意图

Fig.1 Schematic diagram of UAV camera combined with target positioning principle

通过无人机相机同时采集4个不同颜色球形靶标和目标的图像,使用数字图像处理自动提取其像素坐标,与此同时,利用GPS模块测量靶标的经度、纬度、高度等大地坐标,将其转换为地心地固坐标后,再选取其中1号靶标作为参考点,将4点的地心地固坐标转换为以参考点为原点的东北天坐标,结合4点的图像中的像素坐标计算出像平面到海/地平面的单应矩阵,将目标的像素坐标作单应变换,得到目标以参考点为原点的东北天坐标,再根据参考点坐标转换为地心地固坐标,最终转换为大地坐标,即得到目标的经度、纬度、高度。计算流程如图2所示。
图2 无人机相机结合靶标定位计算流程图

Fig.2 UAV camera combined with target positioning calculation flow chart

由于该定位模型主要利用了单应变换,在本文中约定单应模型代指无人机相机结合靶标定位方法。

1.2 测量方法

使用GPS模块可以测量4个靶标在大地坐标系的坐标(ϕ,λ,h),通过WGS椭球模型转换为地心地固坐标(xecef, yecef, zecef),再通过参考点 (x,y,z) 将其转换为东北天坐标 (xe, yn, zu)。4个靶标都在地平面上,由东北天坐标系的定义可知,天方向坐标的值可以近似为0,从而得到了地平面上4个靶标的坐标。
通过目标检测算法可以自动检测这4个靶标在无人机拍摄图像的像素坐标。
通过具有对应关系的两个平面之间的映射关系,即单应变换,可以知道这两个具有投影映射关系的平面上的对应点p1(u1,v1) 和 p2(u2,v2) 能够通过一个 3×3 的变换矩阵H建立以下关系式:
u 2 v 2 1 = H u 1 v 1 1 h 1 h 2 h 3 h 4 h 5 h 6 h 7 h 8 h 9 u 1 v 1 1      
这个变换矩阵H就是单应矩阵[10],单应矩阵一共包含9个参数,并且这9个参数都不能为零。将以上公式化简为
u 2 = h 1 u 1 + h 2 v 1 + h 8 h 7 u 1 + h 8 v 1 + h 9 v 2 = h 4 u 1 + h 5 v 1 + h 6 h 7 u 1 + h 8 v 1 + h 9
在计算过程中,通常将单应矩阵乘以一个不为零的元素,使得h9=1。将上式整理,于是有
h 1 u 1 + h 2 v 1 + h 8 - h 7 u 1 u 2 - h 8 v 1 u 2 = u 2 h 4 u 1 + h 5 v 1 + h 6 - h 7 u 1 v 2 - h 8 v 1 v 2 = v 2
这样一组对应点对就可以构造出两项约束,因此,可以使用4组对应的特征点求解线性方程组,求解出实际包含8个未知量的单应矩阵。需要关注的是,这4组对应的特征点中不能出现3个点在一条直线的情形。
u 1 1 v 1 1 1 0 0 0 - u 1 1 u 2 1 - v 1 1 u 2 1 0 0 0 1 u 1 1 v 1 1 - u 1 1 v 2 1 - v 1 1 v 2 1 u 1 2 v 1 2 1 0 0 0 - u 1 2 u 2 2 - v 1 2 u 2 2 0 0 0 1 u 1 2 v 1 2 - u 1 2 v 2 2 - v 1 2 v 2 2 u 1 3 v 1 3 1 0 0 0 - u 1 3 u 2 3 - v 1 3 u 2 3 0 0 0 1 u 1 3 v 1 3 - u 1 3 v 2 3 - v 1 3 v 2 3 u 1 1 v 1 1 1 0 0 0 - u 1 4 u 2 4 - v 1 4 u 2 4 0 0 0 1 u 1 4 v 1 4 - u 1 4 v 2 4 - v 1 4 v 2 4 h 1 h 2 h 3 h 4 h 5 h 6 h 7 h 8 u 2 1 v 2 1 u 2 2 v 2 2 u 2 3 v 2 3 u 2 4 v 2 4
通过地平面上的东北坐标(e,n)与无人机拍摄图像的像素坐标(u,v),可以按照上述方式建立以下的单应变换关系:
x y z=H u v 1
其中,H是一个3×3的单应矩阵,(x,y,z) 为 (e,n) 的齐次坐标。
因此,通过4个靶标对应点的坐标,结合式(4)就可以求解出对应的单应矩阵。使用手动提取的方式从图像中提取目标的像素坐标后,就可以根据单应矩阵,使用式(5)求解出对应东北天坐标(e,n),再根据参考点转换为地心地固坐标 (xecef, yecef, zecef),最后,通过地心地固坐标与大地坐标的转换,求解出其对应的经度、纬度、高度。

2 测量误差分析

2.1 蒙特卡洛误差分析方法

通常,目标定位的精度分析需要通过对测量参数与目标坐标之间的公式求偏导,得到参数的测量误差和目标定位误差之间的关系,就可以从各参数的测量误差分析出对定位误差的影响。由于计算过程涉及多种、多次、不同坐标系之间的转换,导致直接对公式推导过程比较繁杂,通过简洁且准确度高的蒙特卡洛(Monte Carlo)方法来进行误差分析。
蒙特卡洛方法[11]主要通过使用随机数来进行模拟计算,因此,又被称为随机模型法,其最早来源于 18 世纪法国布丰通过投针实验来求得圆周率。蒙特卡洛方法的主要思想是通过将所求解的问题抽象成一个概率统计模型,通过随机抽取变量输入计算模型得到需要求解的变量,经过多次试验,求得其平均值,从而得到求解变量的近似值。如果要得到精确度很高的近似值,通常需要大量随机数据进行多次试验,因此,在高性能的计算机得到研究人员普遍使用的情况下,蒙特卡洛方法得到了越来越多的应用。
在实际应用过程中,蒙特卡洛仿真的主要应用流程如下:使用数理统计的方式分析计算模型各变量随机误差的分布情况[12],根据目标空间坐标的真实值以及无人机的位置姿态信息反向计算出各变量的真实值,在变量真实值的基础上,按照之前统计的误差概率分布模型添加随机误差,再将其代入定位模型中得到目标的测量值,将求得的目标空间坐标测量值与目标空间坐标的真实值作比较,从而得到目标空间坐标的定位误差。
通常定位误差通过均方根(Root Mean Square,RMS)方式来进行综合衡量,公式如下:
R M S = 1 N i = 1 N [ ( x - x i ) 2 + ( y - y i ) 2 + ( z - z i ) 2 ]
其中,(x,y,z) 为目标空间坐标的真实值,(xi, yi, zi) 为第 i 次仿真计算的目标空间坐标,N为仿真的次数。

2.2 误差仿真计算流程

根据实际情况,无人机相机结合靶标定位和无人机相机结合平面定位的随机误差大多为高斯分布。假设这些参数的随机误差Δx是均值为0,标准差为σ高斯分布。主要的测量参数随机误差如表1所示,其中,参数测量精度为其高斯分布的标准差。
表1 测量参数随机误差

Tab.1 Random error of measurement parameters

测量参数 参数测量精度
无人机姿态角
无人机空间坐标误差 1 m
像素坐标误差 5 pix
设定仿真区域原点O的经、纬、高坐标为 (lat,lon,h),将无人机U设定在原点O正上方50 m,偏航角、滚转角均为 0°,俯仰角为-90°,目标点P最初在原点O的坐标位置。目标点P通过无人机云台相机模型中的转换关系可以得到其对应在图像中的图像坐标。对相应的参数添加高斯分布的随机误差后,通过相应定位模型计算出目标点P的观测值,分布计算出其东、北、天方向的误差,按照公式(6),通过设定次数蒙特卡洛仿真,就可计算当前目标的RMS值。具体流程如图3所示。
图3 蒙特卡洛方法计算RMS流程图

Fig.3 Flowchart of RMS calculation by Monte Carlo method

设定仿真区域为以点O为中心,正东、正北方向均为-100 m ~ 100 m的正方形区域,设定目标点为其中均匀等间隔步长为1 m的所有点。分别计算每个点的RMS值,以正东方向为横轴,正北方向为纵轴,二维坐标点对应的RMS值为大小绘制等高线图。具体流程如图4所示。
图4 仿真绘图流程

Fig.4 Simulation drawing process

本文将分别对无人机相机结合靶标定位、无人机相机结合平面定位进行仿真。
在之前仿真区域的基础上,再设置4个靶标,其坐标在以点O为原点的东北天坐标系分别表示为 (-50, 50, 0)、(50, 50, 0)、(50,-50, 0)、(-50,-50, 0)。4个靶标同P点类似,通过无人机云台相机模型中的转换关系可以得到各靶标对应在图像中的图像坐标。
分析可知,无人机相机结合靶标定位方法的定位误差主要为像素坐标误差,以及不同拍摄角度(主要是无人机云台相机的俯仰角)下单位像素所代表距离不同造成的测量精度的变化。以下将分别研究其对测量的影响。

2.3 像素坐标误差对测量的影响

在无人机相机结合靶标定位中,像素坐标的提取是通过深度学习目标检测自动识别的,也是影响目标定位计算结果的重要因素之一。以下是在只有像素坐标提取误差的情况,对测量结果进行误差仿真实验。
分别对目标点P对应像素坐标添加均值为0,标准差为5的高斯分布的随机误差。按照之前相似的流程进行仿真计算,可以得到目标位置分布与测量误差的关系,如图5所示。
图5 像素坐标误差下RMS等高线图和RMS三维图

Fig.5 RMS contour map and RMS three-dimensional map under pixel coordinate error

横轴表示正东方向,单位为米,纵轴表示正北方向,单位为米。右侧的颜色轴表示图中对应颜色的均方根数值,分别使用了等高线图和三维图来进行直观的表示。由图5可见,目标在视场中间位置时,其定位精度较高,RMS约为0.125;而当目标位于边缘位置,其定位精度较低,RMS约为0.3。因此,测量时,需要尽可能保持使无人机拍摄的目标处于视场中心,以减少像素误差所产生的影响。

2.4 不同拍摄角度对测量的影响

不同拍摄角度(主要是无人机云台相机的俯仰角)下单位像素所代表距离不同,导致测量精度发生变化。
选取-90°、-60°、-30°这三个有代表性的数据作为无人机U的云台相机的俯仰角度进行仿真计算。由于其核心原因是像素坐标的不精确,需要添加像素坐标提取误差来验证。
图6所示,俯仰角为-90°时,区域内RMS最大为0.325,俯仰角为-60°时,区域内RMS最大0.64,俯仰角为-30°时,区域内RMS最大为0.8。由此可见,俯仰角越接近于0°,区域内RMS值越大。
图6 俯仰角-90°、-60°、-30°时像素坐标误差与目标分布的RMS等高线图和三维图

Fig. 6 RMS contour map and 3D map of pixel coordinate error and target distribution at -90 °, -60 ° and -30 ° elevation

因此,在进行无人机相机结合靶标定位测量时,在一般情况下,无人机拍摄角度位于-90°-30°都能满足目标定位测量的需求。

3 定位测量实验

具体实验在较为空旷的足球场进行,布置了4个彩球作为靶标和一个黑色的气球代替目标点,使得4个靶标尽量分散在四个角落,并且让目标尽可能在这4个靶标的中心位置,具体分布情况如图7所示。这些球的直径均为1 m左右,以保证其通过相机成像后所占的像素区域大小可以被检测识别。之后,用GPS模块测量这4个靶标和目标的绝对位置信息。最后,让无人机起飞,在操场上空不同角度使用云台相机拍摄图像视频,采集这4个靶标和目标的图像坐标信息。
图7 靶标和目标布局图

Fig.7 Target and target layout

3.1 实验过程

使用GPS模块分别测量4个靶标和目标的经纬度信息。
由无人机拍摄图像,当4个靶标和目标同时存在时,分别提取其像素坐标,通过无人机相机结合靶标定位方法进行计算。
无人机相机结合靶标定位方法的输入参数有4个靶标大地坐标和对应图像坐标以及目标图像坐标。将4个靶标大地坐标转换为以参考点为中心的东北天坐标,由于这4个点位于地平面上,高度方向可以忽略,将得到的4个靶标的东北天坐标和对应图像坐标计算得出单应矩阵,将其与目标图像坐标做矩阵乘法,便可获得目标的东北坐标,再根据参考点将其转换为大地坐标,则完成了无人机相机结合靶标定位方法的计算。具体流程如图8所示。
图8 无人机相机结合靶标定位方法计算流程

Fig.8 Calculation process of UAV camera combined with target positioning method

3.2 结果分析

将采集到的图像通过目标检测后,得到4个靶标和目标的像素坐标如表2所示,这里罗列实验过程中的部分数据。
表2 4个靶标和目标的像素坐标 Tab.2 Pixel coordinates of four targets and targets

靶标1
像素坐标
/pix
靶标2
像素坐标
/pix
靶标3
像素坐标
/pix
靶标4
像素坐标
/pix
目标
像素坐标
/pix
1 66, 1 935 304, 157 2 595, 104 3 230, 1 931 1 394, 716
2 816, 1 607 1 026, 548 2 891, 586 3 712, 1 746 1 932, 899
3 648, 1 581 838, 509 2 733, 493 3 583, 1 567 1 788, 822
4 494, 1 611 784, 638 2 726, 622 3 729, 1 563 1 766, 898
5 1 267, 1 853 197, 901 2 088, 525 3 374, 1 009 1 634, 915
6 2 300, 1 885 386, 1 024 2 138, 508 3 591, 874 1 963, 919
7 2 823, 1 757 418, 1 182 1 953, 512 3 411, 754 2 027, 916
8 3 224, 1 736 504, 1 407 1 886, 786 3 305, 925 2 102, 1 097
9 3 371, 1 416 244, 1 170 1 843, 741 3 342, 824 2 066, 942
10 3 709, 1 831 852, 1 655 1 925, 970 3 333, 1 063 2 321, 1 271
11 3 698, 1 447 1 300, 1 704 1 597, 944 2 859, 930 2 276, 1 171
12 3 184, 1 203 1 946, 1 814 988, 1 046 2 133, 902 1 999, 1 169
13 2 738, 1 136 2 509, 1 849 506, 1 250 1 540, 951 1 773, 1 238
14 2 656, 79 3 065, 1 660 1 036, 1 759 877, 101 2 016, 1 000
15 2 666, 346 3 519, 1 333 1 573, 1 780 1 328, 523 2 391, 971
16 1 315, 442 2 455, 509 2 007, 1 591 337, 1 179 1 689, 792
17 1 674, 567 3 007, 619 3 153, 1 660 596, 1 187 2 248, 835
18 120, 1 758 612, 824 2 626, 795 3 771, 1 714 1 606, 1 059
19 507, 1 560 536, 796 2 387, 696 3 444, 1 276 1 610, 942
20 865, 1 639 628, 828 2 468, 708 3 644, 1 306 1 764, 979
分别将以上结果通过无人机相机结合靶标定位方法解算,并将解算结果与GPS测量结果对比,如表3所示。由于无人机相机结合靶标定位方法的计算在海拔高度的误差几乎为零,故未列入表中。
表3 计算目标纬度和经度以及和实际结果误差

Tab.3 Error between calculated target latitude and longitude and actual result


纬度/
(°)
经度/
(°)
东向
误差/m
北向
误差/m
总体
误差/m
1 39.110 581 1 117.172 100 3 0.21 -0.18 0.28
2 39.110 581 9 117.172 099 0 0.10 -0.08 0.13
3 39.110 582 9 117.172 100 6 0.24 0.03 0.24
4 39.110 583 7 117.172 103 0 0.44 0.12 0.46
5 39.110 579 7 117.172 096 7 -0.09 -0.33 0.34
6 39.110 583 4 117.172 096 7 -0.10 0.08 0.13
7 39.110 579 1 117.172 096 3 -0.13 -0.40 0.42
8 39.110 579 8 117.172 100 2 0.20 -0.31 0.37
9 39.110 577 7 117.172 099 8 0.17 -0.55 0.58
10 39.110 580 8 117.172 096 7 -0.09 -0.21 0.23
11 39.110 579 3 117.172 098 2 0.03 -0.38 0.38
12 39.110 579 117.172 100 1 0.2 -0.4 0.45
13 39.110 579 5 117.172 098 5 0.06 -0.35 0.35
14 39.110 579 2 117.172 097 8 0 -0.39 0.39
15 39.110 581 4 117.172 099 7 0.16 -0.15 0.22
16 39.110 577 2 117.172 099 3 0.12 -0.6 0.62
17 39.110 579 2 117.172 101 4 0.31 -0.38 0.49
18 39.110 581 4 117.172 100 4 0.22 -0.14 0.26
19 39.110 578 5 117.172 097 -0.08 -0.46 0.46
20 39.110 579 1 117.172 096 1 -0.15 -0.39 0.42
以正北方向为0°,由于无人机一般采用的是东北地坐标,根据右手螺旋法则,顺时针方向为正。将误差结果作极坐标图,如图9所示。
图9 目标定位结果

Fig.9 Target positioning results

可见所有测量结果均在半径0.7 m的圆周内,无人机相机结合靶标定位方法具备较高的测量精度。

4 结束语

本文研究了一种无人机相机结合靶标的定位方法,并通过蒙特卡洛误差分析方法进行仿真计算,研究了测量定位过程中像素坐标误差对测量产生的影响以及不同拍摄角度对测量产生的影响。实验结果表明,无人机相机结合靶标的定位方法具备较高的精度,所有测量结果在0.7 m内,满足落点目标定位测量的需求。
[1]
黄鑫. 有控弹道落点快速准确预报方法研究[D]. 太原: 中北大学, 2016: 10-11.

HUANG X. Methods on fast and accurate prediction of trajectory correction projectile impact points[D]. Taiyuan: North University of China, 2016: 10-11.

[2]
曾凡桥. 制导弹药的弹道滤波与落点估计技术研究[D]. 太原: 中北大学, 2017: 11-12.

ZENG F Q. Research on the technology of trajectory filter and falling point estimation for guided ammunition[D]. Taiyuan: North University of China, 2017: 11-12.

[3]
杨萌. 基于无人机辅助的船姿测量和落点估计技术研究[D]. 杭州: 浙江大学, 2019: 12-13.

YANG M. Research on techniques for UAV aided ship attitude measurement and fall point estimation[D]. Hangzhou: Zhejiang University, 2019: 12-13.

[4]
于潼. 基于单相机与DEM的弹落点坐标定位方法研究[D]. 天津: 天津大学, 2018: 11-12.

YU T. Research on coordinate positioning method of shell falling point based on single camera and DEM[D]. Tianjin: Tianjin University, 2018: 11-12.

[5]
李黎, 刘忠, 刘志坤, 等. 一种舰载炮弹弹落点预测新方法探究[J]. 应用科技, 2018, 45(4): 95-99.

LI L, LIU Z, LIU Z K, et al. A noval method about the prediction of projectile's outer ballistic trajectory[J]. Applied Science and Technology, 2018, 45(4): 95-99.

[6]
徐义桂, 陈维义. 差分组合目标定位的舰炮对海射击检靶方法[J]. 兵器装备工程学报, 2020, 41(2): 54-59.

XU Y G, CHEN W Y. Target detection method of naval Gun shooting against sea based on differential combination target positioning[J]. Journal of Ordnance Equipment Engineering, 2020, 41(2): 54-59.

[7]
李晓冰, 李振宇. 多旋翼无人机脱靶量测量技术研究[J]. 兵器装备工程学报, 2017, 38(8): 17-20, 24.

LI X B, LI Z Y. A method of miss distance measurement based on multi-rotor UAV[J]. Journal of Ordnance Equipment Engineering, 2017, 38(8): 17-20, 24.

[8]
刘颖. 海上靶场弹着水柱坐标声靶检测与计算方法研究[D]. 太原: 中北大学, 2008: 10-11.

LIU Y. The research on impacting point in the water column coordinates measurement and calculation based on the noise test of the shell's explosion in the sea shooting range[D]. Taiyuan: North University of China, 2008: 10-11.

[9]
Richard Hartley, Andrew Zisserman. 计算机视觉中的多视图几何[M]. 韦穗, 等, 译. 合肥: 安徽大学出版社, 2002.

Richard Hartley, Andrew Zisserman. Multiple View Geometry in Computer Vision[M]. Hefei: Anhui University Press, 2002.

[10]
吴福朝. 计算机视觉中的数学方法[M]. 北京: 科学出版社, 2008.

WU F C. Mathematical methods in computer vision[M]. Beijing: Science Press, 2008.

[11]
吴维元. 蒙特卡洛方法在仿真中的应用[J]. 电脑编程技巧与维护, 2014(10): 82-83, 90.

WU W Y. Using Monte Carlo method in simulation system[J]. Computer Programming Skills & Maintenance, 2014(10): 82-83, 90.

[12]
田再克, 杨锁昌, 冯德龙, 等. 蒙特卡罗法分析GPS误差对火箭弹落点预测精度的影响[J]. 中国测试, 2014, 40(3): 117-120.

TIAN Z K, YANG S C, FENG D L, et al. Analysis on effect of GPS error on point prediction of rocket using Monte-Carlo method[J]. China Measurement & Test, 2014, 40(3): 117-120.

Outlines

/