中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
专家论坛

CARACaS无人自主框架及其感知、控制与协同技术综述

  • 何佳洲 ,
  • 胡剑秋 ,
  • 张煌
展开
  • 江苏自动化研究所, 江苏 连云港 222061

何佳洲,1966年生,江苏丹徒人。1988年毕业于武汉大学数学系,1999、2002年毕业于南京大学计算机系,分别获理学学士、工学硕士和博士学位。现任中国船舶集团学科带头人,研究员,中国舰船研究院博士生导师,担任中国航空学会信息融合分会副主任委员、《指挥控制与仿真》杂志主编。获国防科技进步二、三等奖多次,曾获“国务院政府特殊津贴”、“集团公司有突出贡献专家”等荣誉。出版专著、译著各一部,在中文核心期刊和国际学术会议上发表论文60多篇,EI索引10余篇,获得国防专利授权10余项。

Copy editor: 张培培

网络出版日期: 2022-05-19

版权

版权所有,未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计。

Survey of CARACaS Autonomy Framework and its Sensing, Control and Collaborative Techniques

  • HE Jia-zhou ,
  • HU Jian-qiu ,
  • ZHANG Huang
Expand
  • Jiangsu Automation Research Institute, Lianyungang 222061, China

Online published: 2022-05-19

Copyright

Copyright reserved © 2022

摘要

针对CARACaS(Control Architecture for Robotic Agent Command and Sensing)无人自主框架、核心组件、示范验证和应用发展情况进行综述。首先,简要描述了自主框架的组成及其软件架构的设计原则和思路,对行为、动态规划和感知三类引擎的技术特征进行分析,讨论了世界模型的构建原则和方式;其次,较为详细地分析了CARACaS技术典型示范验证和拓展应用情况,讨论了水面无人艇自主导航应用中CARACaS感知系统技术演化和发展;然后,考虑CARACaS技术示范验证与美国无人行业领军代表——空间集成系统公司SIS(Spatial Integrated Systems)集成开发工作密切相关,概要总结了SIS集成技术特点和最新进展;最后,结合美军在无人领域重点研究技术的发展情况,给出了几点启示。

本文引用格式

何佳洲 , 胡剑秋 , 张煌 . CARACaS无人自主框架及其感知、控制与协同技术综述[J]. 指挥控制与仿真, 2022 , 44(1) : 1 -19 . DOI: 10.3969/j.issn.1673-3819.2022.01.001

Abstract

This paper reviews the CARACaS autonomy framework, its core components, the related maritime demonstrations, some applications and newly developments. Firstly, it concisely describes the relationships of CARACaS’s sub-systems, along with the principles of its software architecture, the characteristics of its behavior engine, dynamic planning engine, perception engine and world model. Secondly, the typical application of the CARACaS’s techniques in the Swarm Ⅱ harbor patrol demonstration is analyzed in detail, and discussed the evolution of the CARACaS’s perception system used in the USVs’ autonomous navigation. Thirdly, the Spatial Integrated Systems(SIS), as an industry leader in the development and integration of solutions incorporating next generation digital 3D data capture and processing technologies, has applied the CARACaS’s techniques to serve as the heart of the SIS’s autonomous capabilities, its products and systems of unmanned technologies are recommended. Finally, it also sums up some other unmanned system developments such as US Navy’s unmanned shipbuilding plans, unmanned tactical control systems, and it conclude the paper with some inspirations.

CARACaS由NASA(National Aeronautics and Space Administration)喷气推进实验室JPL(Jet Propulsion Lab)在20世纪90年代研制[1],总体框架和核心构件到2003/04年陆续成型,主要用途是实现火星探测车“漫游者”MER(Mars Exploration Rover)等的自主控制。
到2006年,CARACaS陆续被美国海军研究办公室ONR(Office of Naval Research)、国防高级研究计划局DARPA(Defense Advanced Projects Research Agency)、国防战略能力部长办公室OSDSCO(Office of the Secretary of Defense Strategic Capabilities Office)、国家海洋和大气局NOAA(National Oceanic and Atmospheric Administration)、陆军坦克自动推进研究发展与工程中心TARDEC(US Army Tank Automotive Research Development and Engineering Center)等选中[2,3],用于为无人系统提供自主控制服务的骨干框架,迄今已广泛运用于美军诸多水面无人船USVs、水下无人潜航器UUVs和地面无人车UGVs(Unmanned Surface、Underwater and Ground Vehicles)试验、演习、科学考察和执行专项任务。
历经多年,距离达成无人化目标仍有相当差距,或许正因如此,CARACaS作为美军自主无人系统的一项重要支撑技术,其关键组件一直在不断扩充、验证。
不同于传统海军舰艇研制“铁三角(速度、有效载荷和耐久性)”原则,本质上,USV发展受制于“控制三角”原则,即伴随任务和/或环境的复杂性、自主性和有保障的通信[4]。由此可见,自主性是无人系统的一项最基本、最关键的能力。实现无人系统自主能力的重要性也就不言而喻。
本文将着重对该框架涉及的几项核心技术和应用进行分析梳理,希望能找到其中的一些共识。作者认为,本文讨论的CARACaS和其他无人自主技术一样,在逐渐走向实用化过程中,碰到的技术难点是相通的,可相互借鉴。

1 CARACaS无人自主框架设计

1.1 框架的组成

CARACaS作为一种紧凑型自主智能体集成框架,组成框图如图1[5,6]所示,包括五部分:三种引擎(行为引擎、动态规划引擎、感知引擎)、一类世界模型和一组执行器。
图1 CARACaS系统框图[5]
图1中,框架的中心部分是行为引擎,嵌入在一种稳健、实时、可配置的机器人软件架构R4SA(Robust,Real-Time, Reconfigurable Robotics Software Architecture)应用层中,该架构由JPL开发,支持自主式或命令式机器人系统快速原型式集成,也可理解为一种模块化、可配置和可扩展的实时嵌入式系统。行为引擎采用冲突仲裁机制,为系统提供实时行为组合和协调控制;动态规划引擎基于携载式连续活动调度规划执行和重规划组件CASPER(Continuous Activity Scheduling Planning Execution and Replanning),通过迭代修复策略,实现目标任务的规划/重规划;感知引擎则需要根据无人平台具体使命任务和携载的传感器特性进行针对性设计,如JPL为海上无人艇基本型态势感知提供一个标准化配置,由一套广角锤头型立体摄像系统和一套iPUMA(Integrated Precision Underwater Mapping)声呐(一种宽幅前视声呐)系统(实现水下危险物检测/避碰)组成;世界模型为无人平台状态信息、无人平台和其他协同智能体的任务目标和计划等提供公共访问入口,同时为导航和科学数据获取提供在线环境感知图;执行器对应无人平台的相关载荷,由方向舵和油门等组成。

1.2 核心组件R4SA

CARACaS主要通过核心组件R4SA实现框架中所有子系统之间的同步和基于行为引擎的调度处理。R4SA采用低耦合性、高一致和可测试等设计原则,支持快速原型开发,总体上设计成一种基于系统控制的三层架构,包括:设备驱动层,由动力控制和模拟-数字变换硬件接口组成;设备层,采用与具体硬件无关的通用接口描述,由摄像机、IMU、动力反馈等传感器和执行器组成;应用层,由所有高层控制命令、界面和导航等与行为和应用相关控制组成。软件架构如图2[6]所示。
图2中,系统部分理解为某类确定无人平台系统为实时完成相应的特定目标,所必需的基本功能,由以下构件(不限于)组成:命令处理器(处理来自图形用户接口和命令字典的指令)、遥测显示和数据日志、连续序列化调度、配置处理器、系统处理器(实现线程之间的协调和同步)等。
设备驱动层,通过ISA或PCI总线为相关硬件提供底层软件的接口;设备层,通过组合机器人的特定算法和设备驱动层与具体硬件之间的接口,为应用层提供更加通用的抽象层;应用层,通过设备层,为单个无人平台或无人平台之间提供特定或公共的高层功能。

2 三种引擎分析

2.1 行为引擎

在行为引擎中,总体上采用JPL开发的多机器人行星前哨控制结构CAMPOUT(Control Architecture for Multi-robot Planetary Outposts)[7,8],如图3所示,CAMPOUT首先体现了行为表示、行为构成、群组行为的团队协同以及相互之间的交互等;进一步基于某种目标,将某个行为描述为感知(传感器输入)到一个或一组活动的映射。
图3 CAMPOUT行为分层架构[7]
采用连续序列编码构造法构建行为,以强实时方式运行在R4SA的应用层,允许开发人员通过动态激活或禁止设置行为状态,控制行为执行。激活或禁止通过仲裁实现,具体有包容、投票和区间规划等仲裁机制。比如:在危险规避/航路点规划任务中(如图4所示),依据感知引擎提供的目标和环境信息,一方面采取包容仲裁处理方式,通过感知引擎激活危险规避行为,控制方向舵和油门,抑制前往航路点的过度驾驶行为,实现危险规避;另一方面,无人平台也要意识到必须前往下一个航路点,因此,需同时规划相应安全航路。
图4 导航行为仲裁[6]
对于海上环境中无人艇自主航行应用,需遵守国际海上避碰规则COLREGS(International Regulations for Preventing Collisions at Sea)。如图56所示[9]图7给出了USV遭遇交叉态势时,依据COLREGS规则的一个行为快照,该情况下,USV必须为从右舷航行过来的船舶让路,然后从其后面通过。各种行为的运动方向采用不同颜色进行编码(其中:紫色区域表示转舵将违反COLREGS规则,红色区域表示会导致碰撞,绿色表示安全航行区域,黄色表示安全到碰撞的缓冲区)。
图5 各种COLREGS态势中机动类型[9]
图6 同一态势中COLREGS规则不同应用情况[9]

避碰相对距离由两船相对速度决定,相对距离大则不必考虑“交叉”规则

图7 交叉态势USV行为快照[6]

2.2 动态规划引擎

动态规划引擎CASPER架构如图8所示[6,10]。给定目标任务和自主航行器当前状态作为输入,CASPER将在遵守资源约束和活动规则前提下,生成一个活动计划,尽可能满足更多的目标任务需要。
图8 CASPER高层组织架构图[6]
CASPER采用规划器ASPEN(Automated Scheduling and Planning Environment)建模语言ML(Modeling Language)实现自主航行器描述编码,包括资源和状态信息,以及适用的任务和操作规则。采用迭代修复算法实现计划动态更新,同时对冲突计划(比如:资源过渡订阅等)进行分类,通过执行一个或多个计划修订逐一消解冲突。 CASPER采用承诺性最好的局部启发式迭代修复方法,实现计划的生成和更新。
1)活动数据库ADB(Activity Database)
活动是CASPER中心数据结构,可描述为计划/调度中某个具体的动作或步骤。任何一个活动都有唯一的起始、终止和持续时间。计划/调度中所有的活动都是ADB的元素。ADB管理当前计划/调度中所有活动的状态,也通过集成为其他类别实体提供接口服务。
2)时间约束网络TCN(Temporal Constraint Network)
TCN是一种用来表示活动间时间约束的图数据结构。时间约束描述了一个活动和其他活动和/或调度范围间的时间关系,并对活动集实施排序。TCN实现了一个简单时间问题(Simple Temporal Problem)并将其描述为一个约束集,即在ADB中的活动相互间所有约束,都必须在某个给定的时间内得到满足。在TCN中,活动用时间点对表示,这里每个时间点对应活动起止时间,TCN图中的边表示时间点之间的时间距离约束。
3)资源时间表
资源时间表用来推断活动对物理资源的使用情况。任意时刻,如果资源累积使用量超过其容量,则会检测到容量冲突。资源时间表模型包括两种类型:消耗性资源(如燃料)和非消耗性资源的时间表。后一类资源使用时通常不会产生明显消耗,而仅仅是被“留用”一段时间(如:某样设备)。
4)状态时间表
状态时间表表示任何属性或状态都随时间变化。每个状态可以有几个可能取值,但某时刻一个状态只能取一个值。活动可以更改或使用状态,例如,“启动引擎”活动会将引擎的状态设置为“激活”,而“移动”活动也会要求引擎处在“激活”状态。当活动随时间设置/运转时,状态时间表值将会不断更新,并可能出现不一致或冲突。此时,状态时间表子类将负责不断检测那些非法引入的变换序列。
5)参数约束网络PCN(Parameter Constraint Network)
每个活动都有许多由用户定义或由系统计算生成的参数,如开始、结束和持续时间,所用资源,更改/占用的状态等。在CASPER中,可以在同一活动内的参数之间或在不同活动定义的参数之间,创建依赖关系。依赖关系对应参数值的约束,这些依赖关系通过PCN表示和维护,以确保参数之间在任何给定时间都满足相应的依赖关系。
6)规划和调度算法
规划/调度系统采用搜索算法搜索有效的接近最优的计划/调度。ASPEN框架支持多种调度算法:构造性算法和基于修复的算法等,前者以增量方式构造有效的调度;后者使用随机或贪婪技术生成一个可能有效、也可能无效的完整的计划,然后通过迭代分析,启发式消除或修复计划中的冲突,直到形成有效的计划。
2.2.1 迭代修复
原理上,CASPER接收到高层的目标并生成一个计划,接着增量式派送执行计划,然后监控计划的进程,同时随时处理计划执行过程出现的问题。计划就是一系列的活动,既要满足运行的约束,也要实现高层的目标。CASPER中的约束可表示为:可列举状态观测量(如:摄像机开机和关机状态)、可耗尽/可更新(如:燃料)或不可耗尽/不可更新(如:20W功率)资源约束、动态标定的时间约束(如:在观测之前,校准一个相机需要2030 s时间)等。
冲突的实质一定是存在特定方式违反了计划约束,包括参数约束、时间约束或者资源约束。每种冲突类型对应一组修复方法。
在迭代修复过程中,在用户给定的时限内,迭代修复算法每次选择一个冲突进行处理,直到没有冲突或者超出了用户给定的处理时限为止。预先给定的冲突修复方法包括:活动的移动、删除、细化或抽象;为某项活动增加一个示例或进行预留;取消预留;打开时间约束;断开时间约束;更改某个参数值等。
迭代修复算法首先选择一个待修复的冲突,然后选择一种修复方法。比如:当移动某个活动时,算法必须为该活动重新选择一个起始时间。在修复某个冲突时,可能引起另外一个冲突,因此,整个冲突消解过程,通常需要很多步骤。
图9给出了一个修复示例。板卡RAM是一类可耗尽资源,深色阴影部分表示RAM内存出现了超额订阅冲突。冲突之前使用资源的科学活动称为贡献者,移动或删除一个贡献者可以修复冲突;另一种可能是通过创建下链活动,实现资源补充,修复冲突。
图9 资源耗尽冲突修复示例[10]
2.2.2 增量式重规划
传统上,研究规划和调度主要集中在处理批量计划制订问题上。这种方法,在处理一个规划问题时,把时间划分为多个规划区,每个规划区持续一段时间。每次计划执行周期,当时间接近当前规划区终点时,规划器预测当前计划执行结束时的系统状态(参见图10),并根据新规划区预期状态,调用新规划区的新目标;然后规划器为新规划区生成一个新计划。
图10 传统的批处理“计划-执行”周期[10]
这种方法有许多缺点。在此类面向批处理的模式中,规划通常是一个离线过程,事先需要大量的计算工作,因此在规划器调用和生成新计划之间有很大的延迟。如果出现规划失败等负面事件,则到新规划生成整个响应时间可能非常长。此时,被控系统必须在没有规划器指导的情况下,以适当方式运行。
如果发生正面事件,比如活动提前结束,响应时间可能会很长。如果机会短暂,系统必须能够在没有新计划情形下利用这些机会,这是因为生成新计划将产生延迟。
特别是,由于批处理规划器非常耗时,它必须在当前计划结束之前就启动,这就使得预测当前计划执行完成时刻的系统状态成为难题。如果预测错误,则规划在后续执行过程中会变得更困难。
为了使动态规划处理获得更高级别的响应能力,CASPER采用了连续规划方法。与其考虑批处理过程,规划器需要获得目标和初始状态,不如考虑为规划器设计当前目标集、计划、当前状态以及预估未来状态的模型。由此,可在任意时刻,通过对目标、当前状态或计划区的增量更新(以比批量计划小得多的时间增量)更新计划的当前状态,完成规划流程化处理。
由于更新可能碰到意外事件,也可能只是随时间向前推进,此时,规划器只需根据最新信息维护一个满意一致的计划。由于事情很少完全按照预期进行,规划器随时准备修改计划。从规划器视角看,每个周期中都可能会发生以下情况:
1) 在计划中发布目标和初始状态更改;
2) 变更效应(包括冲突识别)通过当前计划预估传递;
3) 调用计划修复算法,消除冲突并使计划符合当前的状态和目标;
4) 执行计划中最紧迫的任务。
图11描述了这种规划方法。在每一步中,规划器都会根据当前规划区分旧计划、新规划区中目标变化(Δ目标)、状态变化(Δ状态)和规划区的扩展,通过增量重规划寻找更有效的计划。
图11 连续增量式计划扩展规划法[10]
这里关键的假设是,如果Δ目标和Δ状态很小,则使计划与状态和目标一致所需的计划变化(Δ计划)也会很小。
当然,不能保证上述假设总是正确。事实上,如果领域目标高度交互,则目标组合中某个小改变可能会迫使计划发生重大变化。即使这样,使用不同抽象级别可有助于保持这种增量属性。通常,较低抽象级别需要大量的计划更改,可以表示为更高抽象级别单一更改,例如,与单个观测相关联的一组移动操作活动,可等价于执行单个移动操作。

2.3 感知引擎

感知引擎的主要目标是生成可作为安全导航的基础态势图,因此可以使用达成此目标的任何传感器套件[6]。比如:ASV(Autonomous Surface Vehicle)通常在海面上航行,ASV的危险来源来自海面上或与船舶吃水深度相比较浅的任何东西;而对AUV(Autonomous Underwater Vehicle)而言,感知引擎通常有一个前视声呐系统,有许多商用系统已经在水下机器人上安装和测试过,AUV和ASV不同之处在于,AUV在3D环境中移动,其环境同时受到海底和陆地情况的限制。
感知引擎经适应性修改,方可应用于相应场合。在MER上,JPL开发了增长型自主搜集勘测科学系统AEGIS(Autonomous Exploration for Gathering Increased Science System)[10],采用MER车载传感器在长距离行驶过程中科学标记感兴趣的目标,然后采用基于目标位置的车载自主方法序列进行分析探究。这里AEGIS只是车载自主科学调查系统OASIS(Onboard Autonomous Science Investigation System)大型框架中的一部分,OASIS是一组模式识别算法套件,为车载自主系统设计,用于支持与飞行器和卫星联合实现科学探索。
关于感知引擎,AUV和ASV采用的是完全不同的方案,有关ASV感知系统技术的发展和应用将在后面详细给出。

3 世界模型构建

人类基于有限感知构建周边世界的心智模型,然后基于这一内在模型进行决策和行动。系统动力学之父弗雷斯特将心智模型描述为[11]:人类大脑中所承载的周围世界的形象只是一个模型,在大脑中,没有人能够想象整个世界、政府和国家,因此,只能选择一些概念和关系,用它们来表示真实的系统。
由此,在设计无人自主航行器的控制系统时,自然就想通过构建类似人类“心智模型”的所谓“世界模型”,来描述智能体将要面对的未知世界。采用分层范式,典型的世界模型包含[12]:
1) 一类智能体操作运行环境的先验描述(比如:环境地图等);
2) 感知信息(比如:智能体开始位置以及基于该位置行进的情况,当前智能体所在的位置等);
3) 完成此项任务所必需的任何其他知识(比如:所有必需的检测装置等)。
在分层范式中,存在两类难题:封闭世界假设(Closed World Assumption)和框架问题(Frame Problem)。
封闭世界假设要求世界模型中包含自主智能体需要知道的一切,这就隐含没有任何“意外”,如此高的要求,需要程序设计人员必须考虑所有情况。与封闭世界假设相反的是开放世界假设(Open World Assumption),当智能体在开放世界活动时,封闭世界假设将不再适用。由于分层范式整体上是一种不可改变的结构,因此当规划问题采用分层范式时,程序员需要处理每一种可能的情形,由此形成的世界模型将异常庞大。程序中包含的事实(或公理),必须依据每次分层分类执行,实际应用中通常导致不可计算。
这种用可计算方式描述真实世界就是通常意义的框架问题[13]。框架问题由麦卡锡在1969年提出,即“仅具备有限信息处理能力的机器人(或其他人工智能设备)无法应对复杂现实世界中可能出现的所有问题。”“框架”是解决某个问题时的“基础支撑与行为边界”。机器人、人工智能以及广义层面的计算机,只要在限定的框架内,比如国际象棋等规则严密有限框架内,他们就能表现出人类无可比拟的能力。
框架问题不仅限于人工智能或机器人。我们人类,比如一个汽车司机,遇到一些紧急情况,会突然脑中一片空白,酿成各种形式的车祸。现代社会充斥着复杂且规模巨大的问题,比如对股市、战场上的指挥控制、开发新药等,变量至少成百上千,甚至几万、数十万。由此可见,对于“基于规则的人工智能”来说,框架问题应该说是致命的。尽管如此,针对ASV应用的特定场景,我们仍然可以通过限定范围,构建所谓的“世界模型”,在一定程度上解决实际问题。

4 CARACaS应用情况分析

这几年随着无人技术蓬勃发展,JPL适时采取了政府免费使用、商业应用购买许可的方法,加速了CARACaS技术在军用无人领域的应用。
空间集成系统公司SIS(Spatial Integrated Systems)作为美国下一代数字化3D数据获取和处理技术开发和集成,提供成套解决方案的领军公司,在其无人系统业务上,通过购买许可与JPL在CARACaS技术应用方面开展合作,全面验证了面向无人系统的自主导航以及全天候(白天、夜间)避障避碰能力。
2014年8月在弗吉尼亚州的詹姆士河,在CNO主导下完成了最大规模的一次自主蜂群示范验证,重点针对护送高价值目标和围捕海上可疑目标两项任务进行验证;2016年10月在切萨皮克湾(Chesapeake bay)开展了港口巡逻防御示范验证[2]。随后又开展了两次演示,验证了通过舰到岸的自主联结器向陆战队提供后勤保障能力,以及在后续海军陆战队演习中,采用了多架USV、UUV和UAV协同完成河流水文测量和火力打击任务。
在这些事件中,CARACaS展示了适应多种无人系统战术任务的能力,包括水雷战、部队保护、高动态环境下ISR、非对称威胁快速响应、响应对手高速入侵高价值目标时的阶段性协同保护,以及缓解传感器和无人平台功能退化时的动态行为。
受到公开资料限制,下面重点对2016年的港口巡逻防御(蜂群Ⅱ自主化)验证进行分析[3,14]

4.1 无人艇港口自主协同巡逻示范验证

4.1.1 应用总体设计
2016年的蜂群Ⅱ自主化方案验证中强调了构件组合,表1描述了CARACaS功能构件一种配置。竖直分层从上至下隐含相互间的依赖关系。每个子项经组合形成中间件,提供公共模块库,支持从其他构件或分系统接收并提供共享数据,最重要的是通过采用DDS(Data Distribution Service)标准实现内部进程间通信IPC(Inter-Process Communication),同时采用同步和异步消息选择、在线数据一致控制、键控消息和内置过滤等策略,支撑CARACaS世界模型的实现。
表1 CARACaS软件框架[3]
CARACaS自主架构 CARACaS自主工具箱
自主应用 操作工具箱
命令字典
任务建模和行为
定制运动规划
硬件接口
命令接口
任务模型合成器
任务可视化
软件进程管理工具
自主模块 开发工具箱
任务执行
行为引擎
规划库
感知和控制模块
仿真引擎
内部检测工具
算法可视化
模块重放工具
体系结构定义 结构化服务
模块化分解
世界模型规格说明
接口控制文档
健康监控
参数管理
数据日志和回放
中间件
数据中心传输和通信
消息同步
命令和数据处理
4.1.2 功能架构和信息流
在CARACaS系统中,所有智能体的运行方式均采用全分布式,即不存在某个特定的智能体进行集中式处理。在海上应用中,无人艇之间通过共享世界模型和隐式协调实现协同。图12描述了系统的主要软件模块和功能数据流,自主规划和控制元素驻留在任务执行程序和行为引擎中。
图12 系统的功能架构和信息流[3,14]
任务执行程序,根据当前世界模型的状态确定需要完成什么任务(识别任务),同时权衡所有智能体及其当前和未来的任务,确定由哪个智能体处理哪项任务(完成任务分配),并且负责管理每个自主智能体执行任务行为的时间表。因此,所有智能体均需要为自己和其他智能体作规划,但只执行给自己规划的内容。在海上遭遇通信难题无法精确通信时,该模型能根据当前数据共享的退化程度,适应性调整团队任务分配。
行为引擎负责如何成功完成每项任务,通过CARACaS命令和数据处理接口激活行为,顶层行为在任务分配后由任务执行程序激活。行为在本质上是分层级的,比如:核查行为首先可能会调用拦截行为,后者又可能会调用航路点行为。因此,命令和数据处理接口支持嵌入行为间任意调用。当然,行为引擎必须确保所有传递命令均通过反射性危险回避层检测,以确保艇体安全。
4.1.3 蜂群Ⅱ巡逻场景、典型行为和结论
蜂群Ⅱ港口演习的目的是展示自主协同无人艇完成港口场景的巡逻任务。一组无人艇艇群,每个均具有完整的能力,安装GPS和一定探测距离的本地传感器,可完成某指定区域的巡逻任务。如图13所示,任何外来船只(用触点表示)进入该区域,必须采取跟踪、核查,若判断其为可疑船舶,在巡逻区域内应当对其实施尾随监视。这里核查操作需要相应USV安装摄像机和船舶识别软件,对触点图像进行辨识,判断入侵船舶的属性和类型;如果被认定为“可疑”船舶,则必须进行尾随处置;如果不是,则船只被认定为“中立”,保持适当跟踪即可。必须确保所有船舶均被检测和跟踪,并且所有可疑的船舶由专门USV尾随监视。
图13 蜂群Ⅱ港口巡逻场景[3,14]
为了实现蜂群Ⅱ港口巡逻任务,自主无人艇共涉及四种典型行为:
1)巡逻(Patrol):协同监控某个指定的区域;
2)跟踪(Track):始终保持区域内外来船舶至少在一艘USV雷达探测范围内,并形成稳定轨迹;
3)核查(Inspect):分派一艘携带类似摄像机设备的USV对不明船舶进行分类和识别;
4)尾随(Trail):分派一艘USV密切追踪和监视已进行分类的可疑船舶。
在切萨皮克湾进行海上验证,测试USV蜂群在真实任务环境中实施港口巡逻的有效性,共计进行为期一个月涉及12个不同难度的水上场景(包括入侵船舶的不同数量、部署、速度、接近和机动方式等)测试。选择其中20个航次交给领域专家团队分析,在这些航次中,四艘无人艇共计完成38小时的自主运行。
验证结果表明:大多数自主方法包括任务识别、多智能体任务分配、协同行为执行、运动规划以及危险规避等可行且有效,同时体现了在应对通信难题时的鲁棒性。
尽管如此,评测显示验证结果对融合态势感知图像的高度依赖性以及感知噪声对整体系统性能的不利影响。绝大部分影响行为的异常都与感知相关,比如:航迹ID的改变、航迹丢失等与雷达性能相关。图14描述了某个误检目标点导致一个正处在尾随状态的USV,为了保证航行态势安全而被迫改变航向。
图14 一个误检测目标点暂时中断尾随[3,14]
可见,对USV无人自主系统,主要困难还是传感器探测误差,特别是当任务场景的构建对传感器误检测点和不匹配航迹高度敏感时,困难表现得更加突出。

4.2 无人艇自主导航和感知系统演化

通过对当前水面无人艇自主导航的主要感知模块比较分析,初步得出以下结论[15]
1)雷达感知距离最远,但受限于机械扫描速率。常见的商用海上X波段雷达也难以处理近距离回波(<100 m),虽然该限制部分可以通过采用更精细化的信号处理方案来克服;Ka波段雷达提供了较好的折中方案,探测范围为30 m~3 km,但单纯使用雷达很难解决船舶类型识别问题。
2)激光雷达虽然具有较合理的感知距离和距离分辨率,但与雷达一样,受限于机械扫描速率。在实际应用中,有效射程也受限于较低的角度分辨率和船体摇摆,导致较小目标(如船只)在“稍远”(大于数十米)时就只能返回少量的激光点云。
3)360度单目视觉虽然有较好的角分辨率,且无须机械扫描,但受当前视觉算法在不同光照条件下对各种类型障碍物可靠检测能力的限制,特别是单目视觉距离分辨率相对较差,只能通过视觉上或惯性感应,在感知图像中找到参考地平线。
4)立体视觉具有出色的角度分辨率,且无须额外的机械稳定平台,同时能可靠地感知和检测水面上的物体。但受相机基线和图像分辨率约束,主要不足仍是相机视场角和距离分辨率。
可见,单独依靠一类感知模块,难以实现无人艇自主的感知和导航,针对不同任务和场景,组合采用上述不同感知模块,是解决无人艇自主航行的必然选择。
鉴于商用的雷达感知技术相对比较成熟,激光雷达在无人艇上的应用尚有很多技术难点需要攻克,如探测距离太近和受海况影响返回的点云过于稀疏、质量也难以令人满意,有研究者认为,受海浪影响当距离大于20 m时,激光雷达相对就不再有效。鉴于CARACaS团队更多精力放在视觉感知方面,因此,下面重点对这方面的工作进行分析。
4.2.1 全景视觉分析与跟踪
美国海军使用水面自主视觉分析和跟踪系统SAVAnT(Surface Autonomous Visual Analysis and Tracking)[15,16]来实现水面目标分析与跟踪,SAVAnT系统实现了中远程探测及跟踪其他船只,并确定船只是否具有对抗性,SAVAnT接收来自全向摄像头的图像,识别图像中感兴趣的目标,估算目标存在的概率,包括无人艇传感器范围之外的目标。
SAVAnT系统的组件和数据流如图15所示,图像服务器捕获原始相机图像和INS(Inertial Navigation System)姿态数据,并生成“稳定”图像。触点服务器检测“稳定”图像中感兴趣的目标(触点),并计算每个目标的绝对方位。通过目标级跟踪和变化检测OTCD(Object-level Tracking and Change Detection)服务实现对一系列来自真实目标和假目标的触点方位进行分类,通过隐形三角测量定位目标位置(纬度/经度),维护一个跟踪目标数据库,并在新目标出现或已知目标消失时进行报警。
图15 SAVAnT系统的系统组件和数据流[16]
由于复杂多变的照明条件、视角的变换、可能遮挡等,不同的触点范围和海况的变化,从图像中检测特定类型的物体十分困难。
SAVAnT系统针对上述不利条件,在进行触点检测前通过图像服务器进行了一系列的预处理。对于光照条件差的情况,实施增加曝光时间处理;对于由海浪带来的视角变换,使用惯导姿态信息保持图像“稳定”,稳定的图像将被裁剪成以地平线为中心的垂直条带,重点处理水面上感兴趣的区域,从而减少计算时间;然后分别使用天空和水面中采样到的局部像素平均值对图像强度进行归一化处理。
触点检测过程必须足够灵敏,以便以相对较低的误报率从输入中提取所有真实目标。SAVAnT使用了两种自定义算法,专门用于检测场景中感兴趣特定类型目标的触点。
OTCD算法处理触点服务器中被识别的所有触点,以生成ASV任务所需的态势感知。该功能采用生成和维护目标列表的形式,确认目标存在,估计目标位置。
OTCD操作在“物体层面”而不是图像领域,主要是考虑已获取的目标可能不在当前图像中,在“物体层面”处理触点还可以避免对来自不同相机的图像进行记录和拼接处理。OTCD通过跟踪巡逻区域内所有目标来实现触点数据库建立,包括位置估计、位置估计的协方差以及目标是否存在的概率。
这套“物体层面”上触点跟踪方式,初步解决了多目标的跟踪问题,但SAVAnT的跟踪任务与传统的多目标问题,特别是与锚泊区舰队防护AFP(Anchored Fleet Protection)任务之间有重要区别。
JPL在设计SAVAnT系统时选用了一个特殊的移动传感器,它关注目标在长时间尺度上的身份,覆盖目标区域为完全超出传感器感知范围更大时间的区间。传统的跟踪场景要么使用固定的传感器,要么在移动时使用短时间尺度的传感器,无论哪种方式,它们主要负责检测即时可见的触点,相比而言,SAVAnT允许目标“离开”和“回来”,在“回来”后仍然作为“离开”前的同一目标进行跟踪,为应对这一挑战,SAVAnT为每个目标创新发明了一个“存在概率”以及管理这一概率的方法。
4.2.2 锤头立体视觉
在锤头立体系统中,立体摄像机的布置体现了分辨率、视场和构型等因素的工程折中。由于单个立体对很难实现有效导航和远距离探测所需的大视场和小角度分辨率;而多个立体对可以提供所需的视场和角度分辨率。但问题是当多个立体对以传统方式安装在单独的固定装置上时,会变得笨重且难以集成。采用的折中方法是:在同一固定装置上安装两个立体对;摄像机共享一个公共基线,其中一对摄像机面向左侧,另一对摄像机面向右侧。这种排列提供了良好的分辨率和视场,并采用一种紧凑构型,代价是没有理想的几何立体测距。最终配置是:两组安装在公共夹具上的摄像机,具有1米基线和100度组合视野。采用摄像机分辨率为1280×960像素单色电荷耦合器件(CCD),单组视场约为60°,如图16所示。
图16 锤头立体视觉构型图[15]
在多变的海上环境,获得水面物体的高质量图像一直都是一项挑战,低太阳角和水面镜面反射等环境因素作用,可能会使相机内置的自动曝光控制失效,船只高加速度也可能导致图像产生运动模糊。因此,锤头系统中曝光控制算法,需要通过自适应控制增益和快门速度来消除这些不利因素的影响。
锤头系统处理流程为:1)图像处理。①立体测距,即通过左右立体对,生成密集测距图像;②查找平面,找到水平基准面同时计算出稳定的相机位姿。2)映射。①投影,将距离数据投影到以船舶为中心的二维栅格地图上;②过滤,在地图上,完成空间和时间过滤;③分类,计算每个地图单元上的危险概率。3)跟踪。①检测:在二维栅格地图中检测离散目标(触点);②分类:为每个触点指定类型;③跟踪:触点融合后形成轨迹,并估计目标的速度和航向。
立体视觉系统生成两类输出:一类基于网格的危险图,适用于静态导航;另一类离散触点列表,适用于动态导航。某些目标(如船舶)可能同时出现在这两类视图中。其中,分类器使用有监督学习算法和手工标注的训练数据离线生成。
分类算法在应用于海洋环境时会出现两方面难题。1)锤头上摄像头布置方式降低了有效分辨率。在锤头上,虚拟校正摄像机相对于真实摄像机旋转,导致校正图像的分辨率不均匀。具体而言,校正后的图像在前进方向(相对于船)上压缩,并在侧面拉伸。由于这种前向压缩特别麻烦,因为它减小了对象的外观尺寸,从而减小了有效的检测范围。因此,为了在不牺牲侧面视野的情况下在前进方向上保持足够高的分辨率,校正后的图像必须比原始图像放大约20%。2)必须对距离数据进行噪声过滤。立体相关器包括许多内部检查,但是一些错误的对应关系不可避免地引入视差图像。在许多应用中,可以使用简单的后处理技术来消除这些错误,分割视差图像并删除具有少量像素或子区域非常小的部分。然而,在海洋环境中,这种方法导致去除水面和感兴趣的物体(通常较小)。为此,我们用一个简单的多尺度滤波器来增强标准后处理技术:立体测距在多尺度(降采样图像)上独立执行,并去除不一致的结果。这种方法可以为水面图像生成更好的信噪比,且总计算量只需要略微增加(由于立体相关计算量与图像大小的立方体成正比,因此图像大小减半可使计算量降至原来的1/8)。
采用多尺度过滤器能形成一个相对干净的以船本体为中心的地图,支持危险检测。地图使用惯导与GPS组合信息进行地理注册,静态危险物在数字海图上标记。用误差椭圆的大小表示立体测距信息中的不确定性,由于目标边界上存在模糊混合测距像素,在校准深度方向上的相对距离比在交叉轨迹方向上的相对距离更大。在跟踪阶段,栅格地图被用于检测、分类和跟踪离散目标,如船舶、航道标记和浮标。锤头系统的输出是一组触点,表示为目标的位置、速度和类型。
4.2.3 触点检测与分析系统
在海上机器人领域,无人艇迫切需要更高效地自动检测、跟踪和分类船舶和其他水上危险物的模型,为此,2020年JPL开发出了一种先进的接触检测和分析系统CDAS (Contact Detection and Analysis System),用于处理摄像机图像(包括可见光和红外光谱),实现360°的海上态势感知[17,18,19]
根据JPL自2006年以来的水上感知系统构建经验,实现稳健的海面目标感知任务需要关注以下具有挑战性的情景:低能见度天气条件、严重杂波的沿海和河流环境、高海况、高速的船舶本体和触点运动以及半淹没危险等。针对这些复杂场景,CDAS软件通过对JPL自主设计的360°摄像头模块和立体视觉摄像头模块的输入数据进行融合处理,以实现稳健的触点检测,如图17所示。值得一提的是,CDAS系统中使用了先进的立体视觉处理技术,包括相机自校准、独立安装的相机之间的实时立体处理等,可实现远距离的海面目标检测和测距,并通过机器学习算法对环境中的目标进行分类,这项基于摄像头的感知技术具有革新性。
图17 第一、二代感知系统
CDAS在完成检测任务后,还必须对图像中触点进行跟踪,以估算触点处目标的速度,便于后续目标运动估计,并对船舶目标类型进行分类,如图18所示。
图18 海面目标检测与分类结果
海面目标的识别结果用水平矩形框标出,目标类别有货船、游艇、军用小艇、浮标等。针对海面多种易混淆目标,CDAS中检测模型对海面上多种目标进行了详细地标注和训练。
CDAS系统通过对海面进行全方位的感知,生成基于网格的危险感知地图以及离散型触点目标列表,列表信息包括目标的批号、位置和速度等。
CARACaS框架通过CDAS系统高效地识别并分类船舶,从而便于JPL行为规划引擎给出的行为序列符合国际海事COLREGS规则。此外,CDAS系统还支持诸如自动目标识别ATR(Automated Target Recognition)和情报、监视和侦察等任务操作。
4.2.4 感知技术演化
JPL一直在不断升级其立体感知系统,从最早的第一代360度单目摄像系统,已经逐步发展到第六代USV交叉立体处理系统。
其中:第一代由360度单目摄像+前视立体摄像+光电EO(Electro-Optical)构成,第二代由360度高清摄像+高分辨率前视立体摄像+EO构成,第三代系统由360度高清摄像+高分辨率前视立体摄像+EO/红外IR(Infra-Red)构成[18],如图19
图19 第三代带IR夜视功能感知系统
第四代感知系统是一种机械式松耦合立体光电/红外系统MUSE(Mechanically Uncoupled Stereo EO/IR)[20],如图20所示。解决方案是采用远距离立体摄像系统,实现无雷达触点检测:1)通过利用舰艇自身的立体基线,实现远距离触点的检测;2)由于只需要被动感知,具备根据任务改变游戏规则能力;3)装舰适用性,仅仅需要放置一个摄像机;4)能够通过测量海岸线实现无GPS导航。面临的挑战有:缺乏刚性立体安装杆,长基线安装杆结构容易变形,每帧图像均需要校准;校准采用手工处理非常困难。JPL创新工作:仅仅采用作战图像就能实现高保真自动校准;高分辨率宽基线立体图像的快速立体处理;多摄像域3D结构新型学习算法。
图20 立体摄像机无雷达触点检测
2017年5月,MUSE被安装在海上猎人(Sea Hunter)进行测试,采用GPS和AIS提供海上目标真值,分别进行了大基线和超大基线试验验证,虽然取得预期成效,但仍面临诸多挑战难题:在大基线方面,由于安装杆过重带来的安装问题和视点变形等问题,完全刚性的安装杆(≫1 m)几乎不可行;在高分辨率图像方面,需要非常宽幅的图像才能“看到”触点目标,需要较小的角分辨率才能实现较好的距离估计,此类大处理带宽和低更新率在高速平台上几乎是不可实现;在视场方面,要求宽覆盖,需要看到USV前方的所有触点,才能实现有效的态势感知。
第五代感知系统是一类多USV立体交叉系统CUS (Cross-USV Stereo)[18,21],如图21所示。解决方案采用多个USV实现远距离目标三角定位:1)根据两艘舰艇分开形成的基线,检测远距离目标触点;2)同样由于是被动感知,具备根据任务改变游戏规则能力;3)两艘舰船同时获得目标触点;4)根据两艘USV之间的距离,以及到触点的角度解三角形。可能的挑战:需要同步相隔100多米的图像;找到不同视场中相同触点;建立精确触点指向角;多个USVs相继获得触点位置。JPL创新工作:采用触点检测(单目CDAS)定位远距离触点;图像同时获取;多平台角度精确确定。
图21 多USV三角定位[18]
JPL在陆地上采用162 m基线(相机间隔)进行测试。在陆地上,采集从几百米到10 km的10个图像目标(触点)进行验证,表明定位误差是距离的函数。在162 m基线情形下,1个像素的观测误差约为距离3.5%(即350 m,对于10 km);给定方向和像素误差时,10 km目标观测速度误差情况如图22所示。
图22 给定方向和像素误差时(10 km),速度误差与观测点数关系[18]
第六代感知系统一体化垂直被动光电测距系统VIPER(Vertical Integrated Passive EO Ranger)[18,21],如图23。针对当前感知系统存在的设备重(>45 kg)、功率高(>500 W)、价格贵(7万美元)等问题,设计方案采用立体垂直化解决方案,由低功耗处理器和被动廉价的EO相机集成构成,实现触点距离估计。面临的挑战有:廉价摄像机(小于500美元)采用渐进扫描方式,在运动平台上可能会退化;信用卡大小的处理器无法采用标准处理架构,需要软件进行适应性修改。JPL创新:红外和可见光相机在运动平台采用渐进扫描方式可行性已完成验证;已完成在Tegra X1处理器卡进行MUSE优化编码测试。VIPER优势:连续功率35 W(峰值功率小于50 W)、重量(小于4.5 kg)、等价或优于HammerHead(更新率2 Hz)性能、价格约1万美元/单元。
图23 VIPER概念设计图[18]
表2列出了JPL实验室,在推动水上被动感知测距技术情况小结。
表2 水上被动感知测距情况小结
系统 最大距离 EO/IR 视场 平台
第一代 中距离 EO 动力艇
第二代 远距离 EO 动力艇
第三代 远距离 EO/IR 动力艇
MUSE 很远距离 EO 海上猎人
CUS 很远距离 EO USV蜂群
VIPRE 远距离 EO 动力艇两栖船
以上分析集中在视觉信息处理层面,这应该是无人系统在特殊应用场景中取代人的一项重要的能力提升,所有综合处理也都侧重于视频特征。如何采用数据融合技术构建完整的感知态势图,可参见瓦格纳联合公司(D. H. Wagner Associated)相关研究工作[22]。该公司在SIS、先进研究实验室ARL(Advanced Research Laboratory)等协助下,基于数据融合数学模型方面的优势,成功研制了以异构无人航行器UVs(Unmanned Vehicles)平台协同为应用对象、以分散式自主数据融合服务DADFS(Decentralized and Autonomous Data Fusion Service)处理为核心的融合航迹云和数据融合引擎,如图24所示,其中的核心算法已经通过4个实际无人平台的真实数据和50个无人航行器的模拟数据测试验证。DADFS算法的主要特点包括:1)采用“燃烧干柴(Burns Down the Haystack)”技术显著减少环境杂波;2)为与操作员关注、具有较高利害关系的航迹和目标进行报警;3)改善航迹一致性;4)改善目标分类和身份识别效果(精度和潜伏期);5)潜伏期和延迟的最小化,提升抗中断能力;6)在通信网络出现中断、间隙和低带宽情形下保持高效处理;7)轻量化软硬件。
图24 DADFS融合航迹云及其数据融合引擎[22]
图24中,JDBS即JHU/APL(Johns Hopkins University Applied Physics Laboratory)分布式黑板系统,由JHU/APL提供。

4.3 SIS公司相关工作

CARACaS自主技术发展得益于空间集成系统SIS卓有成效的集成开发工作[23,24,25],前面已经提到SIS组织开展的系列化演示验证[2],该公司在无人系统方面拥有的核心技术能力,包括全自主智能控制、便携式可伸缩系统(适装任何船舶)、任务行为开发和剪裁(适应不同传感器载荷和作战任务)、群体行动协同、遵守海上规则和航道约束、持续海上存在、最小化通信链路依赖、最小化人类监管需求、海上性能可验证性等,声称其端到端解决方案能为政府和商业用户提供非同一般的价值。下面是SIS开发的几个典型系统。
4.3.1 SIS自主系统
SIS公司基于CARACaS技术研发了一套自主系统SAS(SIS Autonomous Systems)作为所有自主航行器基础软件。SAS提供一个智能化、面向目标的航行器控制系统,能使任何航行器变成智能机器人。SAS采用全模块化架构,很容易通过改造,适配任意航行器底层自主控制。图25~26给出SAS在无人艇上应用示例。
图25 无人艇自主航行中并行行为组合[2]
图26 USV巡逻过程中串行行为组合[2]
图25中采用速度避障法,涉及具体的并行行为组合有:向目标点前进;躲避危险;服从国际海事COLREGS规则。
图26中USV执行巡逻可能涉及的串行行为组合有:1)USV保持常规“巡逻”行为,直到检测到感兴趣触点COI(contact of interest);2)中断“巡逻”行为,发起对COI“拦截”行为;3)中断“拦截”行为,发起“尾随/跟随”行为。
4.3.2 异步数据可靠传输系统
针对无人艇海上自主组网通信中存在环境和干扰的不确定性,SIS公司开发了一种异步数据可靠传输系统RADS(Reliable Asynchronous Data Delivery System)[2],RADS基于DDS标准,依据带宽可用情况差异,可为任意数量的自主航行器提供一个高可靠通信传输服务,系统允许多个客户端通过一个RADS服务器实现互联,可在任何通信层构建系统间的数据同步。RADS通过划分不同带宽等级,优先保证重要的、紧迫性高的数据传输,然后根据可用带宽空间,尽可能实现其他数据的同步传输。
4.3.3 多智能体指挥控制
SIS公司针对当前面临的与多个机器人系统交互难题,开发了多智能体指挥控制MAC2(Multi-Agent Command & Control),为用户提供可行解决方案。 当前,指挥控制系统在某一时刻仅能为某一平台提供输入,无法实现与SIS最新开发自主控制系统的最优交互。为了解决这一难题,MAC2通过平台优化,支持在最短时间内提供最有效解决方案,实现多智能体执行复杂任务时的协同控制。同时,MAC2为操作手提供一个直观的、易于理解的人机界面,通过快速浏览实现多平台态势感知。
4.3.4 手持式自主航行器操作台
SIS研发了平板式MAC2,即手持式自主航行器操作台HAVOC(Handheld Autonomous Vehicle Operator Console)[2]提供对自主无人艇的移动指挥。平板式MAC2 使得瞭望员和指挥员可以身处关键环节,实现“运动中指挥”,由于在此类情形下,让指挥员固定在某个地方几乎是不现实的,也太过受限。为此,经过广泛的咨询以及舰队用户通过实际演示验证中的试用,SIS开发了此类平板式控制系统。
自2006年开始,SIS作为全球无人技术集成应用领域的业界领袖,一直致力于研发无人自主系统解决方案。他们开发的多智能体机器人团队SMART(Multi Agent Robotic Teams)自主系统(Autonomy System)是一个基于行为、面向目标的智能航行器控制系统,能将任意平台转换成智能机器人。近10多年来[2],SIS共计为美国政府完成了15次军事相关的演示验证,涉及13个不同任务领域,其中安装SMART的无人航行器共计运行超过6000小时[24]。迄今为止,SMART已经共计集成到15种不同类型航行器上,超过50艘无人舰艇(UUVs、UGVs和UAVs)。2020年夏天,SIS公司在美海岸警卫队USCG(US Coast Guard)的资助下,采用7 m金钢无人拦截艇,验证无人自主技术在遥远太平洋上(试验地点设在夏威夷瓦胡岛南30海里的20平方海里开放水域)改善海上态势感知能力可行性。
2021年1月[26],美国最大的国防造船商亨廷顿英格尔工业公司HII(Huntington Ingalls Industries)宣布收购SIS公司无人系统业务(同时SIS大约有50名员工加入HII),预计交易将在2021年底完成。
收购主要原因可能来自两方面:1)作为收购的基础,SIS是自主技术领域的领导者,拥有一支才华横溢的团队,能在多域协同自治和感知方面提供无与伦比的能力。近期SIS团队正与一家英国公司合作,在一艘大型水面舰艇上测试自主系统,后续也将提供美国海军试验测试。这项工作与HII未来业务非常接近。2)无人领域巨大发展空间和面临后续竞争压力。HII公司在2020年9月获得了海军大型水面无人艇LUSVs(Large Unmanned Surface Vehicles)合同(同期Lockheed Martin、Bollinger Shipyards Lockport LLC、Marinette Marine、Gibbs & Cox、Austal USA LLC五家公司也获得类似合同)[27],美海军设想中的LUSV约6090 m长以及满载排水1 0002 000 t,大小类似小型护卫舰。根据国防部咨询委员会海军事物特别专家提交的报告[27]:美军一直在不断调整其造舰计划。依据未来分布式舰队架构,2020年12月,为特朗普继任者提供的建议计划是:382446艘有人舰、119166艘LUSVs和中型无人水面舰MUSVs(Medium Unmanned Surface Vehicles)、2476艘超大型水下无人潜航器XLUUVs (Extra-large Unmanned Undersea Vehicles);拜登上台后,2021年6月提交国会造舰建议计划更新为:321372艘有人舰、5989艘LUSVs和MUSVs、2476艘XLUUVs,规模减小很多。尽管造舰计划具体数据波动较大,但总体上看,未来美海军减少有人舰艇、增加无人舰艇,构建更加少人或无人分布式舰队的决心是确定无疑的。

5 相关发展与启示

美军认为无人自主系统存在的两方面优势:分布式和机动性。1)无人自主系统的使用将有助于实施“分布式舰队”概念,确保在拥挤战场上各类武器和传感器的运用更加平衡;2)无人自主系统使用,可以通过优化战略纵深,提高作战部队“机动性”,因此,可显著提升部队的速度和敏捷性,同时,能让相对固定交战对手增加挑战性。
为了加强美海军对海洋的控制,又进一步提出了“分布式杀伤(Distributed Lethality)”的概念,并认为当务之急是提升水面部队杀伤力,特别是在进攻性武器和水面行动群SAGs(Surface Action Groups)作战概念方面,为指挥官提供更多的选择。其中,为了增强战术层面的杀伤力,核心是广泛使用战术自主无人水面舰艇TUASV(Tactical Autonomous Unmanned Surface Vessel),颠覆当前海军固有海上拒止方式,使有人建制部队远离有争议水域,迫使对手在更大防御范围分配关键和有限资源。

5.1 相关技术发展

5.1.1 无人船本体
无人系统形成作战能力的前提依然是无人艇本体。为了满足无人自主技术应用需求,船体结构工程必须遵循以下基本框架:能感知环境和自身的健康状况;能做出智能决策,优化机械配置和传感器使用;能避开其他船舶和障碍物;具备执行指定任务能力[28]
1)美莱多斯(Leidos)公司海上猎人
2017年,莱多斯被指定为美中等排水量无人艇MDUSV(Medium Displacement Unmanned Surface Vessel)研制商,2021年4月[29],完成向海军提交了第一艘这种最先进自主无人艇,命名为“海鹰号”(Seahawk);吸收海上猎人经验和教训,满载排水145 t(14 000加仑柴油),采用双柴油引擎;成本约2300万美元,对标滨海战斗舰LCS(Littoral Combat Ship)的4.8亿美元。在ONR和DARPA联合推动下,借助海上猎人平台(如图27所示)完成了一系列载荷试验,包括猎雷包和一种新型低成本翼伞风筝“桅杆”,即海军牵引式空中升降系统TALONS(Towed Airborne Lift of Naval Systems),TALONS能将68 kg的通信和情报、监视、侦察ISR(Intelligence, Surveillance and Reconnaissance)载荷,送到150450 m的空中,比现有舰船的桅杆高出许多倍,大大扩展了USV的通信和ISR范围。
图27 中型无人水面船海鹰号(前)和海上猎人前往太平洋舰队参加无人系统作战21演习[31]
2)洛克希德马丁UxS
洛克希德马丁公司认为,UxS将借助低成本、大容量和高持久的UAVs、USVs、和UUVs,必将成为未来宙斯盾作战系统对抗抵近威胁的关键助推器[30]。洛马可以利用现有的商业和军事组件,重组并快速建造USV,通过补充自主武器系统AWS(Autonomous Weapons System)来辅助提高巡驱舰CRUDES(Cruiser-Destroyer)的杀伤力/生存能力。借助现有平台翻新选项,采用LCS船体类型形成USV作战概念。该系统主要特征:速度2030 n mile/h、射程600~3 000 n mile、有效载荷56 245 kg、5级海况下生存、平均成本300~1 500万美元。
3)国防部长办公室UxS
创建自主无人系统套件,通过对现有水面平台进行集成,构建“幽灵舰队(Ghost Fleet)”,让舰队拥有系列化自主能力选项[31]。认为低端有几个可能选项:MDUSV、Mk6巡逻艇、LCS等。国防部拟通过增加快速原型和演示,探索完善作战概念。海军部领导层承认,未来保持海上优势将取决于加快作战速度,通过技术创新,抵消对手不断增长的能力。2021年7月,两艘幽灵舰队霸王舰“游牧民”和“游骑兵”完成了从墨西哥湾到加利福尼亚母港航行,几乎全程无人操作(只在进出港时切换到有人模式);在开放水域切换到无人模式,指挥控制和监控均来自岸上或有人舰船的无人操作中心。船上只有少量的船员,对自主性和自动化操作实施监视[30]
5.1.2 自主航行与指控系统
对于无人系统,美军预计在2035年具备初始作战能力,针对TUASV,则必须确保在带宽受限、连通性和电磁退化等条件下展现兼容性和互操作性,包括:具备在规定海洋环境中操作能力;可根据操作环境的变化进行调整;敏捷应对对手的碰撞和武器;自主等级可扩充。一致认为自主无人系统指挥控制是提升互操作能力、主控单元和TUASV行动执行能力的核心。除了前面讨论的CARACaS系统,以下几个系统也得到美国防部和海军不同程度的关注,但它们更加侧重于远程指挥控制[28]
1)海上战术系统公司TASKER
海上战术系统MARTAC(Maritime Tactical Systems)[32]公司开发了一种名为TASKER的体系化指控系统,能同时充当多个USV的指控模块。TASKER工作站是一种点击式软件系统,支持操作员在半自主模式和手动模式间切换控制,系统由移动指挥中心MCC(Mobile Command Center)和船舶控制系统VCS(Vessel Control System)组成,可与自主无人系统通信。
2)L3哈里斯公司控制系统
L3哈里斯(L3 Harris)ASV无人海上系统采用ASView服务器系统,通过统一操控界面,连接有人和无人系统[33]。系统运用服务器/客户端架构,实现对导航、传感器控制数据、视频馈送和负载信息等配置控制和无缝连接。系统支持远程、自动、任务、自主和外挂等多种控制模式,可在运行期间与自主需求等级相适应。
3)共用控制系统CCS(Common Control System)
由海军部长助理及打击规划和执行系统项目办公室开发的CCS,是一种具有通用框架、用户界面和构件化的软件体系结构,可集成各类无人系统[34]。CCS提供美国海军无人航行器的硬件和软件,可跨多个不同系统工作,支持通过CCS实现空中、地面、水下和陆地跨领域协同;支持海军空中无人系统(UxS)提供共用的航行器管理、空中任务规划和行动管理服务;支持来自传感器有效载荷、支援平台和基础设施服务信息的处理、利用和分发。
需要特别说明的是,美海军之所以首先发展海上猎人中型无人艇,除了从作战需求方面,重点考虑与主要对手的柴油动力常规潜艇对抗应用外,另一项重要原因就是成本。根据美国会预算办公室分析,考虑结构相似性原则[28],“海上猎人”主要是为了替换“复仇级”(Avenger Class)反水雷舰MCM-1(Mine Countermeasures Ship),后者在整个生命周期中人员占该总成本的38%,对比巡洋舰人员成本占29%;同时,燃料成本占整个生命周期成本占比要小很多,驱护舰约8~11%,扫雷舰只有1%。
兰德公司报告认为[4],ONR采用三种互补的技术发展海军USVs的导航和任务自主性:1)利用空间和海军作战系统司令部SPAWAR(Space and Naval Warfare Systems Command)的公共地理空间导航工具箱COGENT(Common Geospatial Navigational Toolkit)和海军空中系统司令部(Naval Air Systems Command)的战术控制系统TCS(Tactical Control System),实现航路点导航和静态物体避碰;2)引入JPL漫游者火星车的自主无人系统技术,提升无人艇对环境的主动响应能力;3)与JHU/APL合作,他们在UAVs和UGVs方面的应用基础技术积累,能确保USVs在更复杂环境中的快速响应性。

5.2 启示

无人技术发展的初心,是为了代替人类完成所谓“3D”工作即枯燥(Dull)、肮脏(Dirty)、危险(Dangerous)类的任务,这是由于从事此类任务人类操作员,通常会因长时间乏味作业体力负担过重而发生海上事故,或者因任务性质随时可能直接面临被伤害、被抓捕,甚至死亡威胁等较高风险。
本文讨论的主题更多侧重于军事领域USVs的应用,在此类行动中,无人单元之间、无人单元与人类之间的通信非常容易受到攻击,常见的无线传输方式,如:蓝牙、WIFI、无线电、红外等,在受控环境中能很好地工作,但在军用环境,当受到阻塞、欺骗、劫持、篡改和其他电子战攻击时,将会变得异常脆弱。即使没有外部恶意攻击,很多通信在军用场合也并不总是可靠的(传输可能中断和断续性,水下系统的不确定性)。可见,对于无人系统,有关通信和导航是首先需要解决的难题。
在协调和指挥控制模型方面,核心应该是处理无人系统与人类的协同问题。当前,美军鼓吹所谓第三次抵消,一个重要的观点就是,未来战争的胜利将属于能够最佳地利用自主性和人-机集成的国家[35]。未来赢得灰色地带冲突(定义为有限战争、强制任务和威慑,重要特征就是愈来愈被创新技术所主导)将越发关键,灰色地带战争将更多地依赖于远程控制的键盘操作而不是枪炮瞄准,来改变对手的行为。
多年来,美海军一直在使用小型USVs和UUVs,需要通过有人舰船投放,本质上它们还是作为有人舰船能力扩展。自2016年美国国会发布355舰计划,甚至到2019年上半年,美国国会在大型无人舰UVs建造计划上一直是含糊其辞。直到2020年9月,才在下一步造舰计划中,明确应包括大型UVs,由此,美海军未来转型最可能的兵力结构,将会是由少量大型舰(比如:拥有大型甲板航母、巡洋舰、驱逐舰、大型两栖舰和大型补给舰),加上占比较多的小型舰(护卫舰、轻型巡洋舰、小型两栖舰、小型补给舰,可能包括小型航母),以及第三种水面舰(大小类似轻型巡洋舰或大型巡逻艇)载有少量船员(采用有/无人可选)和大型UUVs等构成的分布式舰队[36]
所谓“知己知彼,百战不殆”。就无人舰而言,现阶段美军特别重视其在开放水域的自主或远程控制的航行能力。动辄30天自主航行测试[37],或者180天持久传感器感知和探测能力测试,或者15 000 n mile的持久海上监视活动[24]。可见,未来很长一段时间,自主远航都将是美军开展无人舰验证的一项最基本能力。
[1]
Antanitus D. Maritime Autonomy, Reducing the Risk in a High-Risk Program[J]. Defense AT&L, 2016(1):24-28.

[2]
Spatial Integrated Systems. Unmanned Systems[EB/OL]. https://navystp.com/vtm/open_file?type=brochure&id=N68335-20-C-0245.2021/9/7.

[3]
Wolf M T, Rahmani A, Croix J, et al. CARACaS Multi-Agent Maritime Autonomy For Unmanned Surface Vehicles In The Swarm II Harbor Patrol Demonstration[C]// Unmanned Systems Technology XIX. International Society for Optics and Photonics, 2017.

[4]
Savitz S, Blickstein I, Buryk P, et al. U.S. Navy Employment Options For Unmanned Surface Vehicles (USVs)[M]. Santa Monica: RAND Corporation, 2013.

[5]
Huntsberger T, Aghazarian H, Estlin T, Gaines D. Control Architecture For Robotic Agent Command And Sensing[J]. NASA Tech Briefs, 2008(10):40-41.

[6]
Huntsberger T, Woodward G. Intelligent Autonomy For Unmanned Surface And Underwater Vehicles[C]// OCEANS'11, MTS/IEEE, KONA, 2011: 1-10.

[7]
Pirjanian P, Huntsberger T L, Trebi-Ollennu A, Aghazarian H, Das H, Joshi S S, Schenker P S. CAMPOUT: A Control Architecture for Multi-robot Planetary Outposts[C]. Proc. SPIE 4196, Sensor Fusion and Decentralized Control in Robotic Systems III, 16 Oct. 2000.

[8]
Aghazarian H, Pirjanian P, Schenker P, Huntsberger T L. An Architecture for Controlling Multiple Robots[J]. NASA Tech Briefs, 2004, 28(11):30-31.

[9]
Kuwata Y, Wolf M T, Zarzhitsky D, Huntsberger T L. Safe Maritime Navigation with COLREGS Using Velocity Obstacles[J]. IEEE Journal of Oceanic Engineering, 2014, 39(1):110-119.

DOI

[10]
Knight R, Rabideau G, Chien S, Engelhardt B, Sherwood R. Casper: Space Exploration Through Continuous Planning[J]. Intelligent System, 2001, 16(8/9):70-75.

DOI

[11]
David Ha, Jurgen Schmidhuber. World Models[J/OL]. arXiv:1803.10122v4 [cs.LG]9 May 2018. https://worldmodels.github.io/.

[12]
Wilson J R. A Comparison of the Sensor Brick Concept as a Modular System Architecture to the Realtime Control System as the Operational Architecture[R]. Master's Thesis, University of Tennessee, December 2005. https://trace.tennessee.edu/utk_gradthes/2539.

[13]
Lifschitz V. The Frame Problem, then and now. University of Texas at Austin[R]. Presented at Celebration of John McCarthy's Accomplishments, Stanford University, March 25, 2012.

[14]
Wolf M T. CARACaS for USV Swarm Autonomy[R]. https://trs.jpl.nasa.gov/bitstream/handle/2014/47349/CL%2317-0276.pdf?sequence=1.2021/9/7.

[15]
Huntsberger T, Aghazarian H, Howard A, Trotz D C. Stereovision Based Navigation for Autonomous Surface Vessels[J]. Journal of Field Robotics, 2011, 28(1/2):3-18.

DOI

[16]
Wolf M T, Assad C, Kuwata Y, Howard A, Aghazarian H, Zhu D, Lu T, Trebi-Ollennu A, Huntsberger T. 360-Degree Visual Detection and Target Tracking on an Autonomous Surface Vehicle[J]. Journal of Field Robotics, 2021, 27(6):819-833.

DOI

[17]
Elkins L, Sellers D, Monach W R, The Autonomous Maritime Navigation (AMN) Project: Field Tests, Autonomous and Cooperative Behaviors, Data Fusion, Sensors, and Vehicles[J]. Journal of Field Robotics, 2010, 27(6):790-818.

DOI

[18]
Padgett C. Evolution of Image-Based Stereo For Sea Surface Navigation[R]. Group Supervisor Maritime and Aerial Perception Systems Jet Propulsion Laboratory, California Institute of Technology Mail Stop 198-235, Pasadena CA 91109. https://trs.jpl.nasa.gov/bitstream/handle/2014/47395/CL%2317-0600.pdf?sequence=12021/9/20.

[19]
Rhee H. Contact Detection and Analysis System (CDAS) Maritime Autonomy and Perception[R]. Work supported by National Science Foundation (NSF) Grant #14060538 to Los Angeles City College, CURE program. https://www.lacitycollege.edu/Departments/Physics-Engineering/documents/Cure-Projects-Docs/Rhee_2016_presentation.pdf2021/9/20.

[20]
Padgett C. Mechanically Uncoupled Stereo EO (MUSE)[R]. Jet Propulsion Laboratory, 12/31/ 2020. https://www-robotics.jpl.nasa.gov/tasks/showTask.cfm?FuseAction=showTask&TaskID=288&tdaID=7000922021/9/20.

[21]
Lee D. JPL FORMER MEMBER. Vertical, Integrated Passive EO Ranger (VIPER) for USV (2017-present). Mechanically Uncoupled Stereo EO (MUSE) for USV (2016-present)[R]. https://www-robotics.jpl.nasa.gov/people/Daren_Lee/personFull.cfm.

[22]
Decentralized And Autonomous Data Fusion Service (Dadfs) For Heterogeneous Unmanned Vehicles (Uvs)[EB/OL]. April 28, 2015. https://www.wagner.com/category/data-fusion/.

[23]
Conti C. Autonomous Control for Unmanned Surface Vehicles[R]. Spatial Integrated Systems, Inc. Dec.8, 2016. http://www.ndia.org/-/media/sites/ndia/meetings-and-events/divisions/robotics/december_2016_division_meeting/conti---autonomous-control-for-unmanned-surface-vehicles.ashx2021/9/21.

[24]
Tegler E. With A Sight, Sound And Radar Picture, Saildrone Could Build An AI Database Of Everything In The Ocean[R]. Aerospace & Defense. https://www.forbes.com/sites/erictegler/2021/08/16/with-a-sight-sound-and-radar-picture-saildrone-could-build-an-ai-database-of-everything-in-the-ocean/?sh=5273dc7a3bdb.

[25]
Spatial Integrated Systems(SIS) Wins US Coast Guard Maritime Domain Awareness Pilot Study Contract[R]. https://www.prnewswire.com/news-releases/spatial-integrated-systems-sis-wins-us-coast-guard-maritime-domain-awareness-pilot-study-contract-301010569.html.

[26]
Brenton B. Huntington Ingalls Industries expands unmanned capabilities by acquiring autonomy business from Spatial Integrated Systems[R]. HII Corporate Director of Public Affairs. https://newsroom.huntingtoningalls.com/releases/photo-release-huntington-ingalls-industries-expands-unmanned-capabilities-by-acquiring-autonomy-business-from-spatial-integrated-systems.

[27]
Ronald O'Rourke. Congressional Research Service,Navy Large Unmanned Surface and Undersea Vehicles: Background and Issues for Congress, Updated August 2, 2021.

[28]
Andrews A M. Concept of Operations for the Tactical use of Autonomous Unmanned Surface Systems[R]. AD1057889, Gravely Naval Research Group, U.S. Naval War College, 686 Cushing Road, Newport, RI 02841-1207, 02/16/2018.

[29]
Leidos Completes Delivery Of Seahawk Vessel To US Navy[R]. https://www.navalnews.com/naval-news/2021/04/leidos-completes-delivery-of-seahawk-vessel-to-us-navy/.

[30]
Drewes P, Franke J. Collaborative Unmanned Operations for Maritime Security[R]. Lockheed Martin Advanced Technology Laboratory 3 Executive Campus Cherry Hill, NJ 08002 (609) 204-5823 https://wiki.nps.edu/download/attachments/720961642/drewesXXcollabortive.pdf?api=v2.

[31]
LaGrone S. Ghost Fleet Hulls Moving Toward Completely Unmanned Operations[R]. https://news.usni.org/2021/07/27/ghost-fleet-hulls-moving-toward-completely-unmanned-operations.

[32]
MARTAC. Core System Components MANTAS USV[R]. https://martacsystems.com/mantas-vessels/

[33]
ASVIEW CONTROL SYSTEM[R]. https://www.l3harris.com/all-capabilities/asview-control-system.

[34]
Common Control System[R]. http://www.navaldrones.com/Common-control-system.html

[35]
Schneider J. Blue Hair in the Gray Zone[R]. Accessed Sep. 23, 2021. https://warontherocks.com/2018/01/blue-hair-gray-zone/.

[36]
Navy Force Structure and Shipbuilding Plans: Background and Issues for Congress[R]. Sep. 16, 2021. https://sgp.fas.org/crs/weapons/RL32665.pdf.

[37]
U.S. Coast Guard sent this bulletin at 11/25/2020 03:47. Imagery Available: Coast Guard completes 30 day test of unmanned surface vehicles off Hawaii[R]. https://content.govdelivery.com/accounts/USDHSCG/bulletins/2ae624c?reqfrom=share.

文章导航

/