分享

回归原点:自动武器|《战争迷雾和人工智能(AI)革命》(远望译品)

 小飞侠cawdbof0 2022-10-13 发布于北京



摘要:日益增加的战争迷雾和摩擦负担下,控制和信息论中渐近极限定理阐明自动武器、人/机半人马或驾驶舱以及传统结构中目标识别失败的原因。在不确定性、操作难度、消耗和实时性不断升级需求下,高水平认知实体的瞄准精度下降,涉及熟悉基态的突然崩溃。在这种状态下,所有可能的目标都是敌人,历史上被称为“杀死所有人,让上帝来解决它们”。


图片

1 引言


    图片   


不幸的是……通过传感器阈值调整来增加目标攻击次数,同时也会增加虚假目标攻击的次数。因此,运营商目标相互竞争,最终产生一种平衡局面(Kish等,2009年)。

理想环境下无法区分战斗人员和非战斗人员一直困扰着军工企业。虽然维基百科“第二次世界大战大屠杀”中列出57起蓄意国家恐怖主义事件,从巴比亚尔到齐沃奇,甚至驻韩美军也面临着战争迷雾的挑战,包括让流离失所的平民南下,进行“渗透威胁”。面对这种不确定性,美军指挥部命令军队无情地向难民开火。在臭名昭著的“老斤里事件”中,大约300个手无寸铁的大人和儿童被杀,而这只是涉及到数百起类似大规模屠杀平民事件中的冰山一角(Hanley等,2001年)。

在战争迷雾的压力下,失控美军对大约500名越南村民的屠杀也存在类似的失败:谁是敌人?每个人都是敌人(Hersh,1972年)。

对于这种认知“基态崩溃”机制,前面进行一些详细探索,已经延伸到自主和认知、武器和其他军事系统。事实上,美国在中东和非洲的无人机战争是一场政治灾难(Columbia,2012; Stanford/NYU,2012),比如第一次世界大战的误判,包括对伊拉克和叙利亚的欧洲殖民国家建设,至今仍困扰着美国。目前,美国和其他国家将从现有人/机“驾驶舱”无人系统转向自主武器。

正如席尔瓦诺·托马西大主教(2014)所言:

在复杂自主武器系统发展中,不让人类参与重要决策是目光短浅的做法,可能不可逆转地改变战争的性质,朝着不太人道的方向发展,从而出现不可预知的后果,并加剧战争的非人道化。

有人断言,“半人马作战”——增强型驾驶舱——“让人留在回路里”,该变化会超越机器人,在某种程度上会限制战争的恐怖性。然而,正如Schare(2016)所描述的,在战争迷雾约束下,海湾战争爱国者导弹的使用过程中(Hawley, 2006)提出关于系统操作可靠性的重要问题。爱国主义者可被看作是即将面世的人/机复合材料的早期示例。

Trsek(2014)年研究1988 年美国宙斯盾系统击落一架民用客机的事件,结论是:

[命令责任]在实践中已经从操作者那里删除了几个步骤——它认为我们依靠生物感知来满足[接合规则]标准是天真的,大多数信息都是以电子方式获得的。

前几章已经探讨崩溃动态,将争论的重点从斯查瑞的“操控风险”转移到违反陆地战争法中要求区分战斗人员和非战斗人员 。

再次说明,与飞机不同的是,只要压力中心在重心后,且与重心有足够多的距离,就能够保持稳定飞行。类似人类运动和战斗队、人机“驾驶舱”、自动驾驶车辆、自动武器系统和现代战斗机等高阶认知系统都是为了能够在复杂多式联运需求快速变化的拓扑“高速公路”上实时稳定运行。面对这些动荡的拓扑,根据数据速率定理,认知系统必须不断的接收足够详细的信息来描述它们。


图片

2 目标空间的拓扑


    图片   


当然,问题甚至更加复杂。比如:对战斗人员和非战斗人员进行必要的区分,作战行动的基本“道路拓扑”变得极其复杂。空中交通管制的方案(ATC)提供了一个切入点。在ATC中,局部稳定车辆路径被视为欧几里德空间中编织测地线(Hu 等,2001 年)。这些是流体力学流线特性的概括(Landau 和 Lifshitz,1987年)。如上所述,在 ATC 背景下,Hu 发现欧几里德平面表面上系统无碰撞操作,与非平滑边界特定流形中查找最短测地线是相同的。给定 辆车,测地线在拓扑商空间中计算,根据车辆间距离不超过某个临界欧氏距离来定义的。

对于自主武器或其他受目标约束的武器,是目标区内非战斗人员最小可接受距离。将被更加复杂的拓扑结构和异常动态道路空间(甚至)取代,该空间包含武器“禁区”和周围潜在目标规避机动。n个可能目标的测地线处于高度不规则和快速变化的熵空间中,其动态性能受战争雾和摩擦指数相变影响。不同阶段与Kerner和Klenov(2009)“交通堵塞”形态类似,将统计物理学应用于交通流中。

毫无疑问,在这种限制下飞机的航行要困难得多。“基态”消减显然只是简单的将r减少到零,从而大大简化目标空间拓扑。根据数据速率定理,如果非稳态系统控制信息的传输速率低于生成“拓扑信息”速率定义的临界极限值,则无编码规则、无定时策略、无任何形式的控制方案来保证系统稳定性。在快速变化的多模式“道路”环境中,实时认知系统从环境中获取信息的速度表明,在需求上升的情况下,将出现严重的功能障碍。在1.3节中,依照类似串扰战争雾矩阵分析多模态需求,其可通过特定统计模型来表征标量温度模拟以及摩擦/解决指数。如果以降低精度为代价,复杂“切线空间”削减是可能的(例如,Glazebrook 和华莱士,2009年)。

在战争迷雾“温度”下降或“摩擦”增加的情况下,不会出现柔性降级,而是间歇性的功能衰退。对于自主机构、半人马或人机驾驶舱武器系统而言,这种下降可能会到 “所有可能的目标都是敌人”的状态,如爱国者导弹的自相残杀(Hawley, 2006)。其他认知系统将显示类似于间断崩溃的功能障碍行为(华莱士,2015a,b,2017):潜在的动态无处不在,显然这是不可避免的。

正如Neuneck(2008)年所说的:

[寻求'军事革命' 的支持者] 消除克劳塞维茨的 “战争迷雾”……消除战场上的不可预测性。战争是一个复杂的、非线性的暴力相互作用过程,其中技术优势并不是成功的保证。

图片

图5.1 改编自文卡塔拉曼等(2011)实时战争迷雾的限制下,自动化系统很难区分军用和民用车辆。基态塌陷表明一切都是失败的。

这个问题以不同的形式,在许多场合被反复审议。除了Kish等(2009)的开场白;Venkataraman等(2011)回顾信号处理相关领域的文献,图5.1改编自其论文并概括一些难题。在足够真实战争迷雾状态下,认知系统崩溃成基态,将无法区分SUV、面包车和坦克。

2017年,五角大楼精英顾问小组,越战中以“自动化战场” 恶名昭彰的JASON小组,公开发布美国国防部关于人工智能可能用途的非机密概述(Jason,2017)。

在工作说明的末尾,报告的附录是以下“范围”的问答交流:

4.在这封关于人工智能的公开信中,许多顶尖的人工智能研究人员和学科科学家表达了他们对人工智能发展的潜在隐患的担忧。正如信中所暗示的,我们能相信这些智能体可以正确地执行任务吗? 我们能否证实和验证这些具有足够级别智能体的内置安全性和可控性,以确保这些系统执行规定的任务?

JASON 回应:目前,对人工智能的证实和验证还不成熟。我们有相当大的机会参与推动人工智能技术最先进的计划,使之成为真正的工程学科,其中 V&V 以及其他工程能力[可靠性、可维护性、问责制、可验证性等]将得到适当控制。

卡尔·冯·克劳塞维茨意识到,这明显是律师在敷衍,他认为事情不会这么简单。事实上,约翰博伊德直接下令关闭JASON自动化战场项目,该项目是一种电子传感器和快速反应空袭的混合体,旨在封闭越南北部的“胡志明小道”供应线,这是对资源的浪费(Lawson 2014,第5章)。

总之,与其他实时人工智能一样,无论有没有实际的人工控制,认知武器系统没有免费的午餐。所有此类系统,包括不同规模和组织层次的传统军事指挥结构,在复杂的战争迷雾和摩擦环境中,本质上都易受作战不稳定的影响。以军事承包商及其学术智囊团客户的有关商业梦想为基础,承诺精确瞄准目标的政策,将面临着平民惨遭杀害、新恐怖分子反复出现以及战争罪行持续散发恶臭的噩梦般的现实。

图片

图片

图片

图片


    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多