为什么最强AI也当不了将军? 作者:Cameron Hunter & Bleddyn E. Bowe,英国莱斯特大学历史、政治与国际关系学院。 来源:Cameron Hunter & Bleddyn E. Bowen, We’ll never have a model of an AI major-general: Artificial Intelligence, command decisions, and kitsch visions of war, Journal of Strategic Studies, Vol. 47,No.1, 2024, pp.116-146. 导读 在人工智能快速发展的今天,关于AI在军事领域应用的讨论此起彼伏。本文作者Cameron Hunter和Bleddyn E. Bowen从科学哲学和战争理论的双重视角,对“AI将成为未来军事指挥决策者”的乐观预期提出了根本性质疑。这篇发表于《战略研究杂志》的论文通过独特的理论视角和分析框架,为我们重新思考AI在军事领域的应用提供了重要启示。 作者首次从逻辑推理方式的本质差异出发,揭示了AI在军事指挥决策中的根本局限。通过对比溯因逻辑(战争决策所需)与归纳逻辑(AI所依赖)的不同特点,深入阐释了为什么即便技术继续进步,AI也难以胜任真正的军事指挥工作。文章巧妙地借用了吉尔伯特与沙利文1879年歌剧《平津的海盗》中“现代少将”的讽刺形象,生动形象地说明了拥有百科全书式知识却缺乏实战指挥能力的AI系统的局限性。这种跨学科的分析方法为军事AI研究提供了新的思路。在当前各国竞相发展军事AI的背景下,本文的分析具有重要的政策启示。它警示决策者不要对AI的军事指挥能力抱有不切实际的期待,提醒军事规划者需要准确理解AI的能力边界,并建议将AI定位为辅助工具而非决策替代者。文章从战争本质与指挥决策的理论分析、克劳塞维茨战争理论的现代诠释、冷战时期“目的-手段理性”范式的局限,以及AI系统在战术、战役和战略层面的应用边界等维度展开深入论述。 对于研究人工智能军事应用的学者而言,本文提供了几点重要启示:①需要超越技术决定论,深入理解战争的本质特征;②应当重视人类指挥官的判断力和直觉在军事决策中的独特价值;③在发展军事AI时,要准确定位其辅助决策而非替代决策的角色;④需要建立更符合战争实践的AI军事应用评估框架。在人们普遍对AI军事应用持乐观态度的今天,这种批判性的反思显得尤为可贵。本文不仅对军事AI的发展方向提出了重要警示,也为我们思考人工智能时代的军事变革提供了深刻的理论洞见,值得所有关注军事AI发展的研究者认真研读。 引言:从讽刺歌剧到现实思考 当我学会现代火炮的所有进展, 当我懂得的战术超过修道院的新手, 简而言之,当我略通基本战略, 你会说从未见过比我更优秀的少将。 ——吉尔伯特与沙利文《平津的海盗》,1879年 作者以这首1879年吉尔伯特与沙利文歌剧《平津的海盗》中的著名咏叹调开篇,巧妙地引出了本文的核心论题。这位“现代少将”虽然博学多识,但其知识却流于表面,恰如今天的AI系统:拥有海量数据,却难以真正理解和运用军事指挥的精髓。当前的人工智能技术无法制定、理解或解释战争中的指挥决策。与其期待AI成为敏锐快速的机器指挥官或人类领导者的顾问,它充其量只能像歌剧中的讽刺角色一样:拥有百科全书式的经验知识,却在战争指挥的实际技能上显得捉襟见肘。这一局限源于战争本质与AI能力之间的根本性差异。战争要求基于溯因逻辑进行推理,而机器学习(或“窄AI”)只能依赖归纳逻辑。这两种逻辑形式无法相互替代,因此AI在指挥领域(无论战术还是战略层面)的局限性不是简单地通过增加数据量或提升计算能力就能克服的。遗憾的是,许多国防和政府领导人对AI的本质和战争的本质都存在认识偏差。本文试图从科学哲学的视角,揭示基于归纳的AI为何不适合战争,同时强化克劳塞维茨关于反对机械化处理战术和战略的传统论点。正如劳伦斯·弗里德曼(Lawrence Freedman)在其近作中所探讨的,指挥远不止于下达命令并确保执行,还包括激励下属、凭直觉判断、有效管理资源以及将战术与战略联系起来等多个方面。在克劳塞维茨的战争理论中,战术与战略在道德和人性要素上的差异是程度而非本质的区别。他认为两者源于同一现象:以不同方式组织战斗,战术追求战斗胜利,战略则是将战斗串联起来,并结合其他后勤和支援因素,以实现战争的最终政治目标。指挥决策本质上需要判断力,这正是AI技术所不具备的——机器学习这类“窄AI”只能计算,而无法做出真正的判断。通过这样的开篇,作者不仅确立了本文的理论基调,也为后续深入讨论AI在军事指挥决策中的局限性奠定了基础。这种将历史讽刺与现实思考相结合的方式,使得文章的论证既有深度,又富有启发性。 AI乐观主义:军事人工智能的期待与误区 近年来,关于人工智能在军事领域应用的乐观预期不断涌现。这些观点主要集中在三个层面:战术指挥、战略决策和军事顾问。然而,这些乐观预期往往建立在对AI能力的误解和对战争本质的片面理解之上。在战术层面,AI乐观主义者认为人工智能系统能够在战场上做出快速、精确的决策。他们认为,通过分析海量数据和模拟各种战场情境,AI可以比人类指挥官更快地识别威胁、分配资源并协调行动。这种观点在美国国防部的AI战略中尤为明显,其中强调了AI在“加速作战节奏”方面的潜力。在战略层面,支持者们期待AI能够通过分析复杂的地缘政治数据,为重大军事决策提供建议。他们相信AI能够识别出人类决策者可能忽视的微妙模式和关联,从而帮助制定更好的战略。一些观点甚至认为,AI最终可能在某些情况下完全取代人类决策者。作为军事顾问,AI被期望能够为指挥官提供客观、全面的分析支持。支持者认为,AI系统可以快速处理和整合来自多个来源的信息,提供更全面的态势感知,并为指挥决策提供基于数据的建议。 然而,这些乐观预期忽视了几个关键问题:首先,它们过分强调了数据处理能力和计算速度,而忽视了军事指挥中的判断力、直觉和人际互动等关键要素。正如克劳塞维茨所强调的,战争中的决策往往需要在信息不完整、环境不确定的情况下做出。其次,这些观点低估了战争的复杂性和不可预测性。战争不是一个封闭的系统,而是充满了人为因素、偶然性和"摩擦"的动态过程。AI系统虽然能够处理已知模式,但在面对全新情况时往往表现不佳。第三,AI乐观主义者往往将军事决策简化为纯粹的技术问题,忽视了其中的政治、道德和人文维度。在实际的军事行动中,指挥官不仅要考虑技术层面的效率,还要权衡政治影响、道德约束和人文关怀。最后,这种乐观预期反映了一种技术决定论的思维倾向,即认为技术进步必然带来军事能力的提升。这种观点忽视了技术与军事效能之间的复杂关系,以及人类因素在军事指挥中的核心地位。因此,我们需要对AI在军事领域的应用持更谨慎和务实的态度。虽然AI确实能够在某些具体任务中提供有价值的支持,但将其视为军事指挥的替代者或全能顾问是不切实际的。我们应该更多地思考如何将AI作为辅助工具,增强而不是取代人类指挥官的决策能力。 “克劳塞维茨引擎”:对AI军事决策能力的理论批判 克劳塞维茨的战争理论为我们提供了一个评估AI军事决策能力的重要理论框架。通过这一视角,我们可以更清晰地看到为什么AI系统无法真正胜任军事指挥决策的核心原因。克劳塞维茨强调,战争的本质特征是其不确定性、偶然性和“摩擦”。这些特征使得战争成为一个开放性系统,而非封闭的确定性环境。在这样的系统中,纯粹的归纳推理(AI的基本运作方式)是不足以应对的。战争中的决策需要一种更复杂的推理方式,即溯因推理(abductive reasoning)——这种推理方式能够在不完整信息的情况下,基于有限线索推测最合理的解释和行动方案。 克劳塞维茨特别强调了军事指挥中“判断力”(judgment)的核心地位。判断力不同于简单的计算能力,它包含了在不确定条件下做出决策的能力、对新颖情况的适应能力、对复杂情境的直觉把握,以及在矛盾和悖论中找到平衡的智慧。而AI系统,无论其计算能力多么强大,本质上仍然是基于预设规则和历史数据进行运算的工具。它们缺乏真正的判断力,无法像人类指挥官那样在战争的“迷雾”中做出创造性决策。克劳塞维茨著名的论断“战争是政治通过其他手段的继续”,揭示了战争的根本政治属性。这意味着军事决策不能仅仅基于技术层面的计算,还必须考虑复杂的政治目标、动态的国际环境、多元的利益相关者和深远的社会影响。AI系统虽然能够处理技术性的军事数据,但难以真正理解和权衡这些复杂的政治因素。它们无法像人类指挥官那样,将军事行动置于更广阔的政治战略框架中来考量。一些技术乐观主义者提出,可以通过构建“克劳塞维茨引擎”——一个能够模拟克劳塞维茨战争理论的AI系统——来实现军事决策的自动化。但这种想法本身就反映了对克劳塞维茨思想的误读。克劳塞维茨强调的正是战争中那些无法程序化的要素,试图将其理论转化为算法本身就违背了理论的核心洞见。战争的艺术性本质决定了它不能被简化为纯粹的技术问题。这一理论分析提醒我们:AI在军事领域的应用应该聚焦于辅助决策而非替代决策,需要保持人类指挥官在军事决策链中的核心地位,技术发展不应导致我们忽视战争的本质特征,军事现代化不能简单等同于技术自动化。克劳塞维茨的思想不仅没有过时,反而在AI时代为我们提供了一个重要的理论镜像,帮助我们更清晰地认识AI在军事决策中的真实位置和合理边界。 此外,克劳塞维茨理论中对“战斗中心主义”(battle-centrism)的批评尤其值得关注。正如Herberg-Rothe指出的,克劳塞维茨在写作《战争论》之前就已经强烈反对将战斗视为“连接目的和手段的最短途径”这一观点。这种将战争简化为纯粹战斗的倾向,实际上割裂了战争与政治领域的内在联系。正如Raymond Aron对克劳塞维茨的精辟总结:“胜利只具有战术意义...在战略和政治层面,目的和手段都必须被同时考虑。”这一洞见对于理解AI在军事决策中的局限性具有重要启示:即便AI能在战术层面取得优势,也无法真正理解战术行动与更广泛战略目标之间的复杂关联。 归纳、溯因与天才:军事决策的逻辑本质 归纳推理(induction)和溯因推理(abduction)的区别,以及军事天才的特质,构成了理解AI军事决策局限性的另一个重要维度。这一分析将揭示为什么即便是最先进的AI系统也无法真正复制军事天才的决策能力。在军事决策中,归纳推理和溯因推理扮演着截然不同的角色。归纳推理是从大量观察中总结出一般规律的过程,这正是当前AI系统所擅长的。然而,战争中最关键的决策往往需要溯因推理——即在有限信息下推测最合理解释的能力。这种推理方式不仅需要逻辑思维,更需要创造性直觉。拿破仑就是一个典型的例子。他的军事天才不在于能够处理更多的信息,而在于能够在混沌的战场环境中,准确把握关键因素并做出创造性决策。这种能力源于对战争本质的深刻理解,而不是简单的数据分析。正如克劳塞维茨所说,真正的军事天才在于“直觉的准确性”(coup d'œil)——这种直觉建立在深厚的经验基础上,但又超越了纯粹经验的总和。 当前的AI系统,无论其计算能力多么强大,本质上仍然局限于归纳推理的范畴。它们可以分析历史战例、识别战术模式、预测某些具体情况下的最优选择,但它们无法实现真正的溯因推理。这种局限性体现在无法在完全新颖的情况下做出创造性决策、难以理解战场上瞬息万变的情境、缺乏整合多维度因素的智慧,以及无法进行真正的战略创新等方面。军事天才的另一个特质是能够理解和运用“战争摩擦”这一概念。克劳塞维茨指出,战争中的摩擦不是可以通过计算消除的障碍,而是战争的内在特征。真正的军事天才不是试图消除这种摩擦,而是学会在其中运筹帷幄。这种能力需要对不确定性的深刻理解、在混沌中保持清晰判断的能力,以及将偶然因素转化为有利条件的智慧。AI系统的根本局限在于,它们是建立在确定性逻辑基础上的计算工具。即便引入了概率模型和不确定性分析,它们仍然无法真正理解和应对战争的根本不确定性。这种局限不是技术问题,而是认识论的鸿沟——在某种意义上,这种鸿沟是不可逾越的。因此,我们需要重新思考AI在军事决策中的定位。与其期待AI成为独立的决策者,不如将其视为辅助工具,用于提供数据支持、分析具体战术选项和辅助日常军事规划,而将真正的战略决策权保留在人类指挥官手中。这不是对技术进步的否定,而是对军事决策本质的尊重。正如克劳塞维茨所言,战争永远是艺术多于科学,这一点在AI时代依然成立。这种认识对军事现代化有重要启示:技术进步应该服务于增强人类决策能力,而不是试图取代人类决策者。真正的军事创新在于找到人机协同的最佳方式,而不是简单地用机器替代人类。在这个意义上,对AI在军事领域应用的合理定位,不仅是技术问题,更是关乎军事效能的根本性战略选择。 AI在军事场景中的应用限制与人机协同模式 在详细分析了AI系统在军事决策中的理论局限后,我们需要具体探讨AI在实际军事场景中的应用边界,以及如何构建有效的人机协同模式。这种分析不仅有助于我们避免对AI能力的过度期待,也能为未来军事指挥体系的设计提供实践指导。 在战术层面,AI系统确实展现出了显著优势。在空战模拟、导弹防御、电子对抗等特定场景中,AI的快速计算和精确决策能力可以弥补人类反应速度的不足。然而,这种优势仅限于高度结构化、目标明确的战术环境。当战场形势变得复杂或出现未预设的情况时,AI系统的表现就会显著下降。这种局限性体现在多个方面:首先,AI难以处理战场环境中的突发变化,特别是那些超出其训练数据范围的情况;其次,AI无法真正理解战术行动的战略意义,容易陷入局部最优而忽视整体效果;最后,AI系统容易被对手的欺骗性行动误导,缺乏人类指挥官那种基于直觉的判断能力。在作战指挥层面,人机协同面临更大的挑战。虽然AI系统可以提供大量数据分析和方案建议,但如何将这些技术支持与人类指挥官的经验判断有机结合,仍是一个待解决的难题。实践表明,简单的“人在回路中”(human-in-the-loop)模式并不足以确保有效的指挥决策。我们需要发展更复杂的协同机制,使AI系统能够真正成为指挥官的“智囊团”,而不是一个可能干扰判断的噪音源。特别需要注重的是作战艺术(operational art)的概念。这一概念虽然不构成单独的分析层次,但它代表了“在持续时间或大范围地理空间内规划、准备、同步和维持战术行动”的能力,目的是实现战略目标。AI系统在这一领域面临的挑战尤其突出:它们可能擅长优化单个战术行动,但难以理解和协调持续性作战行动与战略目标之间的动态关系。这种局限不仅体现在技术层面,更反映了AI系统在理解作战艺术核心要素——如时机把握、节奏控制、战役构想等方面的根本性不足。在战略层面,AI的局限性更为明显。战略决策涉及复杂的政治考量、长期影响评估、文化因素权衡等多维度问题,这些都远远超出了当前AI系统的能力范围。更重要的是,战略决策往往需要创造性思维,需要打破常规思维模式,这恰恰是基于历史数据训练的AI系统所不具备的能力。 基于以上分析,我们可以提出一个分层次的人机协同框架:在战术执行层面,AI系统可以承担主要的决策职责,特别是在需要快速反应的场景中。但人类指挥官需要保持监督权,并在必要时进行干预。这种模式适用于防空、反导等高度技术化的作战场景。在作战指挥层面,应该采用“增强决策”模式,即AI系统作为辅助工具,为人类指挥官提供态势分析、方案比较和风险评估,但最终决策权始终掌握在人类手中。这要求开发更智能的决策支持系统,使其能够以人类指挥官易于理解和使用的方式呈现信息。在战略层面,AI的角色应该限定为信息提供者和方案验证工具。战略构想的提出、政治目标的确定、战略方向的选择等核心决策必须由人类决策者完成。AI系统可以通过模拟和分析帮助验证这些决策的可行性,但不应试图替代人类的战略思维。这种分层次的协同框架要求我们重新设计军事指挥体系,使其能够更好地整合AI技术,同时保持人类决策的核心地位。这包括:建立清晰的责任划分机制,确保在各个层级上人机角色的明确定位;开发适应性更强的AI系统,使其能够更好地配合人类指挥官的决策风格;建立有效的人机交互界面,降低使用AI系统的认知负担;完善应急处置机制,确保在AI系统失效时能够顺利过渡到人工指挥。实践表明,成功的人机协同不在于追求AI能力的极限,而在于找到人类和机器各自优势的最佳结合点。这需要我们摒弃技术决定论的思维方式,转而采用更务实的发展策略,在确保作战效能的同时,维护人类指挥决策的核心地位。 技术决定论的危险不仅在于其对AI能力的过度乐观,更在于其对军事创新本质的误解。当前军事AI发展中普遍存在的技术决定论倾向体现在三个方面:首先,过分强调技术能力的量化提升而忽视质的飞跃;其次,将军事效能简单等同于技术先进性;最后,忽视了技术与军事组织、军事文化之间的复杂互动关系。这种倾向可能导致严重的战略误判:一方面可能高估AI系统的实际作战能力,另一方面可能忽视人的因素在未来战争中的决定性作用。更值得注意的是,AI在具体军事场景中的局限性往往表现得比理论预期更为明显。例如,在复杂电磁环境下的信息获取和处理、面对敌方欺骗性行动时的判断、在战场环境急剧变化时的应急决策等方面,AI系统都显示出明显的脆弱性。这些局限性不是简单的技术问题,而是反映了AI系统在处理战争这一复杂适应性系统时的内在缺陷。 结论:走向人机协同的军事决策新范式 通过对克劳塞维茨战争理论的重新审视,以及对AI系统在军事决策中局限性的深入分析,我们可以得出一些关键性结论。这些认识不仅有助于我们正确定位AI技术在军事领域的作用,也为未来军事现代化的方向提供了重要启示。首先,AI系统在军事决策中的根本局限源于战争本质与机器智能的内在矛盾。战争作为一个充满不确定性、非线性和创造性的领域,其核心特征与AI系统的确定性运算逻辑存在本质冲突。这种冲突不是通过技术进步就能解决的认识论鸿沟,而是需要我们重新思考人机协同的基本范式。克劳塞维茨的战争理论不仅没有过时,反而为我们理解这一问题提供了深刻的理论洞见。其次,军事决策的艺术性特征决定了人类指挥官在可预见的未来仍将保持其不可替代的地位。真正的军事天才体现在对战争本质的深刻理解、在不确定性中的准确判断,以及创造性的战略思维等方面。这些能力远远超出了基于数据和算法的AI系统所能企及的范围。因此,未来的军事指挥体系应该着力于增强而不是替代人类的决策能力。第三,有效的人机协同需要建立在对各自优势清晰认知的基础上。AI系统在处理结构化数据、快速计算和方案比较等方面具有明显优势,而人类则在战略思维、创造性判断和政治考量等方面保持优势。未来的军事指挥体系应该根据这种优势互补的原则,构建分层次的协同机制,在不同层级合理配置人机角色。第四,军事现代化不能简单等同于技术自动化。过度强调技术创新而忽视战争本质的做法可能导致严重的战略误判。真正的军事创新应该是技术进步与军事艺术的有机结合,是对战争规律的深化认识而不是简单的技术替代。这要求我们在推进军事智能化的过程中保持清醒的战略定力。最后,这些认识对军事教育和人才培养也具有重要启示。在AI时代,我们既要重视技术训练,使指挥官能够充分利用AI工具的优势,又要更加注重战略思维和军事艺术的培养,使其保持独立判断能力。只有这样,才能培养出真正能够驾驭未来战争的军事人才。 未来,军事决策的发展方向应该是走向一种新的人机协同范式,这种范式既充分发挥AI技术的优势,又牢牢把握战争的本质规律。在这个过程中,克劳塞维茨的战争理论将继续为我们提供重要的理论指导,帮助我们在技术浪潮中保持战略清醒,构建真正有效的未来作战指挥体系。这不仅是技术发展的要求,更是保持和提升军事效能的必由之路。 词汇积累 译者:丁伟航,国政学人编译员,上海理工大学讲师。 校对 | 秦子宁 审核 | 秦子宁 排版 | 康桥 本文为公益分享,服务于科研教学,不代表本平台观点。如有疏漏,欢迎指正。 |
|