中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
理论研究

智能算法在兵棋对抗推演中的应用

  • 田忠良 ,
  • 刘昊
展开
  • 中国人民解放军31696部队, 辽宁 锦州 121000

作者简介:田忠良(1980—),男,山东郓城人,硕士,研究方向为作战后勤保障。

刘 昊(1983—),男,博士。

Copy editor: 胡志强

收稿日期: 2020-10-27

  修回日期: 2020-12-11

  网络出版日期: 2022-04-29

Application of Intelligent Algorithm in Military Chess Antagonism Deduction

  • TIAN Zhong-liang ,
  • LIU Hao
Expand
  • Unit 31696 of PLA, Jinzhou 121000, China

Received date: 2020-10-27

  Revised date: 2020-12-11

  Online published: 2022-04-29

摘要

针对兵棋对抗推演中的制权瘫体阶段联合火力打击任务规划问题,研究智能算法应用的可行性。设计了以多智能体协同进化为设计理念的群体智能优化算法,同时针对联合火力打击毁伤特点设计了对抗模拟平台,通过计算机迭代进化输出优化智能体,分析对应的最优任务规划的结构特点。实验分析表明,相比于手工拟制任务规划本算法应用于联合火力打击任务规划,具备全方位的优势,能够有效与兵棋对抗推演结合,可通过任务规划优化辅助指挥员决策,达成人机结合和智能决策的智能算法应用目的。

本文引用格式

田忠良 , 刘昊 . 智能算法在兵棋对抗推演中的应用[J]. 指挥控制与仿真, 2021 , 43(1) : 40 -47 . DOI: 10.3969/j.issn.1673-3819.2021.01.008

Abstract

In view of the war game against deduction right stage collapsed body joint fire mission planning problem as the breakthrough point, the paper studies the feasibility of the intelligent algorithm, has designed with many intelligent evolution is the design idea of swarm intelligence optimization algorithm, at the same time, in view of the characteristics of joint fire damage design confrontation simulation platform, through the computer iterative evolution deduction output optimization agent, and analyzed the structure characteristics of the corresponding optimal mission planning, to prove the effectiveness of the algorithm. The experimental analysis shows that this algorithm has a comprehensive advantage over manual task planning when applied to joint firepower strike task planning, and can effectively combine with military chess confrontation and deduction, and achieve the application purpose of intelligent algorithm for man-machine combination and intelligent decision by optimizing task planning to assist commander decision-making.

兵棋对抗推演是军事演习中的常见对抗样式,相比于实兵对抗推演,兵棋对抗基于敌我电子态势信息和后台数据库,最大限度地拟合真实战场环境和敌我实兵对抗态势,力求还原现实对抗场景并推演战法策略。由于无需动用实兵实装,相比于实兵演习的组织保障需求更低,更能反映战法策略的对抗综合效果,通过对电子态势的复盘分析查缺补漏,在反复推演中修正完善原有战法策略。随着人工智能技术日趋成熟并融入军事指挥实践,智能算法与兵棋对抗推演融合逐步成为计算机和人工智能领域的研究热点,与此相关的研究成果推动军事智能深化发展,并为部队战斗力提升发挥日益显著的作用。
随着国内外专家对其研究的逐步深入,如何更有效地利用其数据资源,使其作为战法策略和兵力火力对抗载体,在更广阔的空间中发挥出综合使用价值,是今后一段时期内重点研究的工作内容。智能算法作为大数据和云计算的核心研究领域,与兵棋对抗平台的有机结合,能够发挥出二者的比较优势,即以兵棋对抗推演的数据资源作为支撑,以智能算法作为手段对敌我对抗演习的实时数据进行分析处理,挖掘能够辅助后续战法策略拟制的高价值经验。国内外相关研究成果众多,文献[1]以智能优化算法为基础构建遗传模糊系统,进而实现兵棋推演的关键点推理,取得较好的优化效果;文献[2]以模拟退火算法为基础设计局部搜索算法,实现了简单规则下的兵棋推演;文献[3-4]则对兵棋推演中的路径优化问题进行了深入探讨,并提供了基于智能优化算法的解决思路;文献[5]以多智能体对抗进化作为算法设计思路,实现简单规则兵棋推演。在复杂兵棋推演中,文献[6]深入探讨了当代战役兵棋推演的规则体系,提出了基于复杂网络的规则约束体系概念;文献[7]以循环神经网络为智能体基础,实现了对兵棋推演的辅助决策;文献[8]构建了决策树推理机以实现兵棋推演中的人机博弈对抗。在兵棋推演数据分析方面,文献[9]详细分析了基于AlphaGo的自我博弈的指挥控制智能化问题,提出了数据耕耘的自我增值思路;文献[10]设计基于堆栈自编码器的深度学习方法,利用兵棋实体决策大数据建立了评估模型;文献[11-12]使用数据挖掘算法在兵棋推演数据中提取有价值信息并辅助智能决策;文献[13-15]则从兵棋推演的文本数据中抽取有价值信息,以实现最大限度的语义理解,进而实现人机结合的智能辅助决策。

1 兵棋对抗推演

本文以兵棋对抗推演平台为测试对象,对其制权瘫体阶段的主要工作进行梳理,找到智能算法应用的切入点,尝试使用智能算法一体化生成辅助决策建议,并优化诸军兵种联合作战的协调配合状态,以联合火力打击计划形式约束诸军兵种火力打击部队的制权瘫体作战行动。

1.1 目标价值评估

制权瘫体阶段的目标价值评估,主要是依据作战决心对火力打击的备选目标确定火力打击优先级,通过量化分析算法形成目标价值评分,并通过融合算法输出目标体系总体评分。常见的目标价值评估主要有三种方法:专家评分法、多属性融合评分法和体系价值评估法。专家评分法在演习中应用范围最广,使用目标属性表依据目标的各侧面属性依靠专家主观评分确定量化评估分值,以此确定目标的重要程度等级;多属性评分法则在专家评分法基础上,通过公式对目标的多个属性融合计算并形成统一的综合评分值;体系价值评估法主要是从目标关联关系出发,构建目标体系的复杂网络,并从网络中观察并确定制约体系价值的关键节点目标,最终形成火力打击排序。从当前演习效果看,专家评分法依然占据主流地位,体系价值评估尚未被指挥员接受,必须从算法层面研究拟制更为科学合理的辅助决策建议,使指挥员掌握当前态势下的目标各方面性能参数,为拟制更为合理的目标排序提供量化依据。

1.2 联合火力分配

制权瘫体阶段的诸军兵种联合火力打击力量众多,型号、弹种多样,地域分布广泛,制约关系复杂交错,使联合火力打击计划的拟制和优化火力分配计算难度大增,如果依据传统的以军兵种参战力量为主体的军兵种火力打击阶段任务分工,联合作战指挥机构只需将目标按类别或重要程度、地域所属划分给诸军兵种参战力量,并由各参战力量单独拟制军兵种火力打击计划并在规定时刻区分波次执行即可,这种火力分配方式的缺点在于:没有发挥出联合作战中诸军兵种火力打击力量的合力,没有统一的计算平台对目标和力量进行优化分配,没有对参战部队弹种的最佳使用方式进行量化分析和统一调配,联合作战指挥机构只发挥出了任务划分职能,未担当起任务优化和统筹职责。因此有必要引入智能算法优化联合火力分配。

1.3 火力打击效果评估

制权瘫体阶段的火力打击和评估通常区分波次执行,每波次火力打击都能区分为火力打击执行阶段、打击效果评估阶段和补充火力打击阶段。参战火力打击力量在火力打击执行阶段根据联合火力打击计划对分配目标按时间阶段和弹药量执行火力打击,在打击效果评估阶段根据目标的毁伤效果统计敌方当前各方面的性能指标毁伤情况,而后根据战役企图对未达成作战目的的目标拟制补充火力打击计划,并执行补充火力打击。制权瘫体阶段一般由多个波次的火力打击和评估环节交叠组成,即评估与打击相互印证,用小范围的火力打击检验评估效果,又用评估效果修正火力打击执行缺漏。但在实际执行过程中,评估和火力打击规划两个环节难以有效结合,由于火力打击计划在战前已经反复推演并固化,当评估结果与打击预期存在较大偏差时,联合作战指挥机构难以在有效时限内修正并下发补充火力打击计划,进而使评估与火力打击脱离,难以发挥联合火力打击实效。

2 智能算法应用

智能算法又称为软计算方法,相比于按规则设计的常规算法,智能算法最大的特点在于随机性和不可复现性。随机性表现为算法内部大量采用随机函数设计思路,为算法提供了多种可行的计算方向;不可复现性表现为算法每次执行的结果不可精确预判,只能依据算法的过往执行效果对结果范围进行一定程度上的预估,难以准确复现两种一模一样的算法执行结果。正是由于智能算法具备上述特征,其在复杂系统问题的求解中体现了超越常规算法的计算效率和广阔的适用性。根据兵棋对抗推演在制权瘫体阶段的任务特点,智能算法主要应用如图1所示。
图1 智能算法应用示例

2.1 体系价值评估算法

目标选择采用体系价值评估的方法实现目标的火力打击先后排序,具体执行过程为:首先,根据专家评分表确定目标的所属种类、所属子类、所属部队,据此构建目标关联表,进而形成目标超网络;其后,统计各目标的种类、子类和所属部队评分;最后,使用智能算法在目标超网络中实现目标聚类分析,进而判断出目标的体系价值评分并输出。根据智能算法应用的侧重点,下面主要分析智能算法应用于目标超网络并计算体系价值评分具体计算过程如下:
步骤1 根据目标的种类关系、子类关系和所属部队关系生成目标关联表。导入系统采集的基本目标信息,目标由包含不同功能属性的同一打击对象子目标组合构成,同一次火力打击能够对同一目标组合内的所有子目标构成不同程度的损害。其中所属部队是目标组合的最小划分,也是火力打击作用的对象,如“驱护舰X号舰”;目标子类是目标组合内各子目标根据其所属功能具体划分出的系统单元,如“舰队防空火力系统”;目标种类是各子目标依据其具体自然属性划分出的类别单元,如“防空-空空导弹”。一般来说,以目标划分的精细度区分,子目标>所属部队>目标子类>目标种类。获取目标的种类、子类和所属部队关系,3类关系如图2所示。
图2 采集信息表中3类关系
目标关联表生成原则为:若两个目标之间存在3类关系中任意一个,则判定目标之间关联度为1,否则为0。
步骤2 生成目标超网络。依据敌方子目标构成的目标关联表,依据表内关联度为1在超网络中连线的原则,生成目标超网络,其中可依据目标所属的不同子类和所属部队划分不同的子网络。图2的示例能够转换为超网络如图3所示。
步骤3 计算各子目标的子类评分、所属部队评分和种类评分。火力打击的目的在于瘫痪敌方网络体系,则超网络中的目标区分类别越少,能够实现的网络体系价值越低。基于此,设计子目标的评分能够反映目标所属超网络的分类价值,网络包含分类越少,则网络价值越低,对应目标的评分越高。设超网络中第i个子目标在超网络中的同所属部队数为 $m_i^s$,同子类数为 $m_i^z$,同种类数为 $m_i^l$,则该子目标的子类评分 $f_i^z$ 、种类评分 $f_i^l$ 和所属部队评分 $f_i^s$ 计算公式为:
f i z = 1 m i z
f i l = 1 m i l
f i s = 1 m i s
步骤4 计算目标的综合评分。使用熵权理想点法将各子目标的子类评分、种类评分和所属部队评分融合并输出为综合评分 $f_i$, 熵权理想点算法首先根据各目标的属性值分布规律计算出各属性值的熵权重,再依据理想点法生成正负理想点,并计算出加权属性值与正负理想点之间的距离对比值作为输出综合评分。
步骤5 计算超网络的体系价值。设超网络中的i个子目标的初始实力为 $s_i^L0$,当前实力为 $s_i^L$,通过熵权理想点法计算的综合评分为 $f_i$ (目标在经受火力打击后实力损耗超过歼灭阈值则将目标去除,因此各目标的综合评分随火力打击而动态变化),则超网络体系价值评分f计算公式为
f = i = 1 n f i · s i L s i L 0

2.2 联合火力分配算法

联合火力打击计划的拟制是制权瘫体阶段联合作战指挥机构的重点工作内容,计划优化包含如下工作:目标量化评估优选、火力打击力量梳理、火力打击限制条件梳理、初始计划生成、最优计划输出。智能算法借鉴了自然界生物进化过程中的协作与竞争机制,通过设计智能体结构模拟参与火力打击的部队弹种,利用智能体变异产生丰富多样的“弹种-目标”组合,通过多个智能体之间的搭配组合产生联合火力打击计划,进而实现联合火力分配的优化。智能体功能示例如图4所示。
图4 智能体功能示例
图4可知,智能体实现“弹种-目标”组合的核心在于目标排序表结构,其生成原则为:根据智能体的部队弹种在目标限制表中调用所有能够打击的目标;根据目标属性表中的所属方排除非蓝方目标(鉴于实际对抗中存在紫方、绿方等中立目标);根据侦察情报排除未被发现或更新不及时目标。将筛选出的目标序号导入目标排序表,并加入适量冗余项-1。其意义表述为:若选择执行冗余项,则部队原地待命3分钟不执行火力打击。智能体的使用流程为:若智能体参与生成火力打击计划,则根据目标排序表依次选中靠前目标序号并判断是否能够实现火力打击:超程不予打击;部队弹种剩余弹药量不足不予打击;部队已歼灭不予打击;目标已歼灭不予打击。如能够执行火力打击则输出“弹种-目标”组合;如不能执行则依次选中后续目标序号,直至排序表所有目标选择完毕,退出循环。基于此,联合火力分配算法的操作流程如下。
步骤1 生成我方智能体种群。按照种群进化原则,为所有部队弹种生成对应智能体,依据目标综合评分由高至低生成目标排序表,并通过变异操作产生同类智能体。变异操作:随机选中目标排序表中两个位置的目标序号并交换,置寿命和智能体评分为0。考虑种群多样性,种群内相同部队弹种的智能体数量至少为3个。
步骤2 生成联合火力打击任务规划。随机抽取每个部队弹种中的1个智能体搭配组合,选中智能体寿命+1,选中智能体目标排序表中的目标序号并生成“弹种-目标”组合,根据目标与部队距离、射弹飞行速度、部队机动速度、打击间隔时间计算出任务规划时刻和火力打击时刻,进而汇总生成联合火力打击计划[10]。设第j个部队弹种的经纬度坐标为 $b_j$$l_j$,第i个目标的经纬度坐标为 $b_i$$l_i$,则部队与目标之间距离 $d_{ij}$ 计算公式为
b ' i = b i · π 180
$l'_i b'_j l'_j$计算方法同式(5)。
d i j = a r c c o s 1 - 2 × 1 - c o s ( l ' i - l ' j ) 2 + 0.5 × c o s ( l ' i ) · ( 1 - c o s ( b ' i - b ' j ) )
设部队弹种的射弹飞行速度为 $x_j$,部队机动速度为 $v_j$,每次火力打击的间隔时间为 $g_j$,本次任务规划开始时刻为 $t_0$,则火力打击发起时刻 $t'_0$ 计算公式为:
t ' 0 = t 0 + d i j x j ( )
t ' 0 = t 0 + d i j g j ( )
下次任务规划开始时刻 $t_1$ 计算公式为
t 1 = t 0 + g j
步骤3 生成智能体反馈评分。将联合火力打击任务规划代入对抗推演,并生成各目标的毁伤程度和部队的弹药兵力损耗,进而计算出对抗评分,将其反馈参与任务规划生成的智能体组合。
步骤4 种群淘汰更新。将种群内同部队弹种的最高分智能体变异产生新智能体,并替代同部队弹种的最低分智能体。
步骤5 重复上述步骤1-4,直至达成迭代上限,选取种群内各部队弹种最高分智能体搭配组合并生成联合火力打击任务规划,作为优化结果输出。

2.3 对抗推演算法

对抗推演算法用于执行联合火力打击任务规划并最终输出反馈评分,为了尽可能贴合实战对抗环境,算法包含航空部队损耗计算、目标毁伤程度计算和反馈评分计算3个核心环节[8]。其中,防空部队损耗计算流程如下:
步骤1 计算当前敌方体系总体防空能力。遍历目标属性表,并计算所有防空目标的当前毁伤程度,设第i个目标属于防空目标,毁伤程度为 $h_i$,综合评分为 $f_i$,汇总并计算敌方体系总体防空能力K,计算公式为
K = i = 1 n h i · f i
步骤2 计算防空部队毁伤程度。设敌方防空体系的初始防空能力为$K_0$,第j个部队属于防空部队,执行任务规划前的实力为$s_j^H$,则该部队遭受防空打击后的实力$s_j^{H'}$为
s j H ' = s j H · K K 0
目标毁伤程度计算过程利用部队弹种的命中概率和对目标毁伤概率,设第j个部队弹种对第i个目标的命中概率为 $z_{ij}$,毁伤概率为 $u_{ij}$,在火力打击过程中共发射的弹药量为 $y_{ij}$,第i个目标内包含子目标数量为 $o_i$,部队当前实力为 $s_j^H$,则对子目标发生毁伤作用的弹药量 $y'_{ij}$ 计算公式为
y ' i j = y i j · s j H · u i j o i
目标遭受本次火力打击前的实力为 $s_i^L$,遭受火力打击后的实力 $s_i^{L'}$ 计算公式为
s i L ' = s i L · ( 1 - u i j ) y ' i j
反馈评分计算利用了对抗推演后各目标的剩余实力,以及参与打击各部队的剩余实力,计算火力打击性价比。火力打击性价比是指每消耗部队1%的实力,能够带来的敌方目标实力损耗值,火力打击性价比越高,则代表参战部队的打击效率越高,同等损耗下能够产生更多的敌方目标毁伤。设第i个目标的初始实力为 $s_i^L, $综合评分为 $f_i$,对抗推演结束时第i个目标的剩余实力为 $s_i^{L'}$,综合评分为 $f'_i$;我方第j个部队的初始实力为 $s_j^H$,剩余实力为 $s_j^{H'}$,目标总数为n,部队总数为m,则火力打击性价比X计算公式为
X = i = 1 n ( s i L · f i - s i L ' · f ' i ) j = 1 m ( s j H - s j H ' )

3 实验分析

为了检验智能算法应用于兵棋对抗推演的总体优化效果,引入对比遗传算法作为对比算法,同时选取手工火力打击计划作为对比结果,分析智能体优化结果的分布特征和搭配规律。

3.1 目标综合评分实验

本实验设计使用熵权理想点法实现目标子类、种类和所属部队评分的融合输出,在算法选择上稍显突兀,因此选取求和公式作为对比融合算法计算两种算法生成的目标综合评分。为了更好观察对比效果,将横坐标目标综合评分按求和公式结果由大至小排序,输出对比结果如图5所示。
图5 综合评分算法对比
通过对比分析可知,求和公式优于计算较为简单,因此各目标综合评分之间的差异度较大,相比较而言,熵权理想点法的最大小值差异度在1以内,相对波动较小;在综合评分比较上,求和公式没有对3个属性值赋予倾向性权重,但优于所属部队评分相对于另2种属性值区分度更高,因此求和公式主要反映了所属部队评分的波动情况,实际走势也趋向于部队属性,对于目标子类和种类评分的作用影响有限,而熵权理想点法对各属性值赋予了倾向性熵权评分,更能反映3个属性值的综合波动效果,图像上并未完全遵循所属部队评分走势,因此后续实验中采用熵权理想点法作为融合评分算法。

3.2 反馈评分实验

在对抗推演算法中,引入了火力打击性价比概念,并用以输出为智能体的反馈评分,作为智能体优胜劣汰的生存依据,为了检查火力打击性价比在对抗推演中对任务规划智能提升的有效性,选取敌方平均毁伤程度作为对比反馈评分,对比结果如图6所示。
图6 反馈评分对比
通过对比分析可知,以目标毁伤程度作为反馈评分时,随着迭代次数增长,目标平均体系价值评分持续走低,相比而言,以火力打击性价比作为反馈评分的目标毁伤程度降幅不如前者,差异值持续增大,并在100 000代后达到1 695.4分(占目标初始体系评分的4.52%),如果仅以目标毁伤程度作为评判标准,则以目标毁伤程度作为反馈评分更为高效;在对比二者部队损失实力中,以目标毁伤程度作为反馈评分的部队损失持续增大,而以火力打击性价比的反馈评分方法则缓慢走低,二者差异度由最初的0扩展为486.74(占部队总实力的2.4%),表明以目标毁伤程度作为反馈评分方法随着优化持续而导致部队毁伤程度持续增长,这种增长不以敌方主观意志为转移,仅是对部队火力打击的被动反击;在对比二者火力打击性价比后,以目标毁伤程度为反馈评分方法在多代迭代后的总体火力打击性价比并未发生明显提升,仅是在8.16~12.80之间波动,而以火力打击性价比为反馈评分方法在19 000代前与前方法基本相同,但随着代数推演和对抗经验积累,在26 000代后的打击性价比产生明显陡增(14.59),并在此后超越前方法,并在100 000代迭代后产生了最高分值18.75。综上可知,以火力打击性价比为反馈评分方法在综合比较中优于前方法,而如不计我方部队损耗,以目标毁伤程度为反馈评分方法更为适用。

3.3 同类算法对比

为了检验算法在同类算法中的综合对比性能,选取遗传算法作为对照算法,取进化代数为100代,观察各代的最优智能体评分结果,对比结果如图7所示。
图7 最优智能体评分对比
通过对比分析可知,多智能体协同进化方法明显优于同类的遗传算法,原因主要在于协同进化在短时间内汲取同类智能体中的优秀基因结构,使其综合评分迅速上扬,评分水平明显优于遗传算法;在长时间的迭代中,遗传算法逐步改善最优智能体的基因结构,使其综合评分水平逐步趋近协同进化方法的综合评分;通过实验可知,在时效性要求较高的领域可优先选取协同进化算法作为智能算法,如对时间要求不高且对算法编程复杂度要求较高,可选取简单易行的遗传算法作为智能算法。

3.4 优化结果分析

选取以智能体组合作为最小变异单位的种群结构,分析最优种群中的高分智能体组合产生的联合火力打击任务规划,并与人工产生的任务规划相比较,部队损耗情况对比结果如图8所示。
图8 部队损耗情况对比
通过对比分析可知,对于各类航空部队编号单元,手工拟制任务规划的毁伤程度维持在85%左右,而智能算法优化的航空部队毁伤程度维持在98%,各航空部队毁伤程度保持一致的原因在于算法中对于毁伤程度计算取决于敌方防空体系的毁伤百分比,因此对于防空体系毁伤较大,则各航空部队对应的毁伤程度相应降低,应用智能算法优化后的各航空部队毁伤程度明显优于手工规划。在任务规划对比中,打击各种类目标的数量对比如图9所示。
图9 打击各种类目标数量对比
通过对比分析可知,优化任务规划的打击子目标总数明显多于手工任务规划子目标数(5829>5212),在目标种类中,机堡类目标(战时军用机场备用机库)增幅最大,高于手工规划的131%;其次为传感器站点类目标,增幅为32.62%;同时对于导弹部队、防空-空空导弹、装卸设施类目标的打击数量明显降低,最大降幅达58.12%,考虑敌方防空体系降低,优化任务规划重点打击了敌方的子目标较少的防空目标,提升了子目标打击效率。对于剩余目标统计分析,敌方目标子类0数表明该目标子类全部被歼灭;所属部队0数表明该所属部队对应的目标全部被歼灭,对应对比结果如图10所示。
图10 剩余目标和防空能力对比
通过对比分析可知,经过智能算法优化,剩余目标中的目标子类0数和所属部队0数明显增长,分别提升了30%和34%,表明经过优化的敌方目标中的具体类别数量明显降低,网络体系价值得到有效削弱;在防空能力降幅对比中,智能优化方法能够实现对敌方更多的降幅(5.69%)。经过综合比较可知,智能优化后的任务规划明显优于指挥员手工拟制的任务规划。

4 结束语

本文针对兵棋对抗推演中的制权瘫体阶段联合火力打击任务规划问题,研究了智能算法应用的可行性,设计了以多智能体协同进化为设计理念的群体智能优化算法,同时针对联合火力打击毁伤特点设计了对抗模拟平台,通过计算机迭代进化推演输出优化智能体,并分析对应最优任务规划的结构特点。实验分析表明,本算法应用于联合火力打击任务规划相比于手工拟制任务规划具备全方位的优势,能够有效与兵棋对抗推演结合,并通过任务规划优化辅助指挥员决策,达成人机结合和智能决策的智能算法应用目的。下一步将根据兵棋对抗推演的实战特点设计更为贴近战场环境的对抗算法,并引入绿、紫军对抗环境,研究智能体在多元环境中的进化规律。
[1]
张可, 郝文宁, 余晓晗, 等. 基于遗传模糊系统的兵棋推演关键点推理方法[J]. 系统工程与电子技术, 2020, 42(10):145-154.

[2]
Jan Hodický, Dalibor Procházka, Fabian Baxa, Josef Melichar, Milan Krejčík, Petr Křížek, Petr Stodola, Jan Drozd. Computer Assisted Wargame for Military Capability-Based Planning[J]. Entropy, 2020, 22(8):376-382.

DOI

[3]
Henåker. Exploring Military Victory in Battle: a Qualitative Study on Contemporary Tactics[J]. Defence Studies, 2020, 20(2):12-19.

[4]
张俊恒. 计算机兵棋中兵力机动路径规划研究[D]. 长沙: 国防科学技术大学, 2010.

[5]
刘转. 基于多智能体系统的兵棋推演模型研究[D]. 武汉: 华中科技大学, 2016.

[6]
Edward JM Colbert, Alexander Kott, Lawrence P Knachel. The Game-theoretic Model and Experimental Inestigation of Cyber Wargaming[J]. The Journal of Defense Modeling and Simulation: Applications, Methodology, Technology, 2020, 17(1):221-230.

[7]
王晓明. 面向计算机兵棋推演的决策支持系统的研究[D]. 北京: 北京邮电大学, 2019.

[8]
李乃金. 兵棋推演人机博弈决策模型的设计与实现[D]. 沈阳: 东北大学, 2009.

[9]
金欣. 指挥控制智能化问题分解研究[J]. 指挥与控制学报, 2018, 4(1):64-68.

[10]
欧微, 李卫军, 廖鹰. 基于深度学习的兵棋实体决策效果智能评估模型[J]. 军事运筹与系统工程, 2018, 32(4):29-34.

[11]
Senior Master Sgt. Shawn J. Jones,Senior Master Sgt. Shawn J. Jones. Wargame Provides Reality Check for War Plans[J]. U.S. Department of Defense Information, 2016, 14(01):129-134.

[12]
刘满, 张宏军, 郝文宁, 等. 战术级兵棋实体作战行动智能决策方法研究[J]. 控制与决策, 2020, 32(4):1-9.

[13]
彭春光. 基于语义交互和动态重构的兵棋推演系统概念框架及其关键技术研究[D]. 长沙: 国防科学技术大学, 2010.

[14]
孙泽健, 司光亚, 刘洋. 基于AIML的兵棋演习智能问答系统研究与实现[J]. 系统仿真学报, 2017, 29(10):2489-2495.

[15]
张晓海, 操新文. 基于深度学习的军事智能决策支持系统[J]. 指挥控制与仿真, 2018, 40(2):1-7.

文章导航

/