1 基于想象力机制的作战资源分配贝叶斯学习模型
1.1 任务矩阵模型
表1 作战任务矩阵模型Tab.1 Joint operational task matrix |
| 作战任务: 任务目标 任务限制(时间、资源等) | 支撑要素: 能够支撑任务完成的作战力量、资源等要素,如打击敌方舰船部队的支撑要素,有战斗机中队、舰队和岸舰导弹部队等。 |
|---|---|
| 威胁要素: 能够威胁任务达成的敌方关键作战力量或关键环境因素,如战斗机执行空对地突击的威胁,有敌方爱国者防空阵地和驱逐舰编队。 | 任务事件: 任务分析过程中预设或任务执行过程中发生的与任务有关的事件,通常表明任务已完成、无法继续执行或任务失败等,起到一种指示器的作用,引导指挥员进入新的任务筹划点。 |
1.2 作战任务矩阵的信念网络模型
1.3 基于想象力机制的贝叶斯学习参数估计模型
表2 算法1:基于想象力加速的参数学习算法Tab.2 Algorithm1: parameter learning algorithm based on imagination acceleration |
| 输入:初始化参数 , , , 输出:学习后的参数 , |
|---|
| 1)如果学习过程没有结束,启动一次仿真推演,否则输出 , 2)持续推演,若在时刻t,支撑要素sj执行任务mi,遭遇威胁要素dk: ① 更新参数 : ← +1, ← +1 ② 对所有的j'∈J且j'≠j,更新参数 : ← +λj,j', ← +λj,j' ③ 更新参数 ,对所有的j'∈J且j'≠j,更新参数 : 若支撑要素sj在威胁要素dk作用下没有完成任务mi, ← +1, 若支撑要素sj在威胁要素dk作用下完成任务mi, ← +1, ← +λj,j' 3)判断是否推演结束,是:转到1);否:转到2) |
2 基于深度最小威胁生成树搜索的任务优先级模型
表3 算法2:深度优先最小威胁生成树搜索算法Tab.3 Algorithm2: depth first minimum threat spanning tree search algorithm |
| 输入:威胁值 ,毁伤程度 ,i=1,2,…,l,k,u=1,2,…,n |
|---|
| 输出:最小威胁生成树M*,最小威胁值Min_Threat |
| 初始化:随机生成一棵威胁树Mpre,计算Mpre的威胁值Th{Mpre},置M*←Mpre,Min_Threat←Th{Mpre},Min_Threat_before←0;定义最小搜索误差min_e,搜索误差e,搜索次数cout←0,搜索到最优值时的次数cout_best←0;将Gen_tree和Tail_tree置为空树。 |
| 算法过程: 1)从威胁树Mpre中按照深度优先顺序向下遍历,取出当前遍历到的元素mi,将mi加入Gen_tree,将Mpre剩余的子树加入Tail_tree。cout←cout+1; 2)If e≤min_e 输出M*,搜索结束;Else继续执行3); 3)计算Gen_tree的威胁值Th{Gen_tree}: If Th{Gen_tree}>Min_Threat,跳转到1); Else 继续执行4); 4)从Tail_tree中按照深度优先搜索的顺序遍历,取出当前遍历的元素加入到Gen_tree中生成新的子树;Tail_tree剩余的子树构成新的Tail_tree; 5)判断Gen_tree树的大小与总任务数的关系: If Size(Gen_tree)=l,继续执行6);Else跳转到4); 6)计算Gen_tree的威胁值Th{Gen_tree}: If Th{Gen_tree}<Min_Threat;跳转到1);Else继续执行7) 7)更新搜索误差e← , Min_Threat_before←Min_Threat,cout_best←cout,转到1)继续执行。 |
3 仿真实验验证
3.1 实验环境的设置
表4 算法初始化参数Tab.4 Initial parameters of the algorithm |
| 参数名 | λ | min_e | e | |||||
|---|---|---|---|---|---|---|---|---|
| 参数值 | 30 | 10 | 20 | 20 | 0.9 | 0.01 | 1 | 0.95 |
中国指挥与控制学会会刊 