![]() ![]()
前言 本《空军条令通告》(AFDN)旨在对人工智能(AI)进行描述,并预判其在整个竞争连续体中对空中作战任务的作用。文中引用了多种参考资料,包括联合作战及军种相关政策、法律法规、学术和工业界成果以及相关专家咨询意见。本AFDN是对国防部(DoD)现有AI政策与战略的补充,具有权威性和指导性,但并不具备强制指令效力。 本通告从作战条令发展角度出发,探讨当前问题及潜在解决途径,填补条令体系中预见性缺口,为可能对全军产生普遍性影响的作战议题提供支持。同时,本AFDN汇总了最新经验教训与最佳实践,供指挥员和参谋人员在制定战略及空中作战规划时参考使用。 鉴于AI领域术语与概念存在定义分歧,本通告并不拟定美空军官方定义,而是对相关术语与概念予以描述,以帮助全体官兵理解AI内涵,并为军种及联合作战层级未来制定AI政策提供参考。 如本通告与联合作战或其他军种条令冲突,以相关政策文件为准,优先适用于美国空军活动。 第一章:引言 一、AI的前景 计算机技术改变了战争方式。二战期间,英国开发的早期计算机“Bombe”破解了德军的恩尼格玛密码,为盟军提供了重要情报,直接影响了大西洋战局的走向。 随后,真空管驱动的电子超级计算机推动了太空与导弹项目发展。硅基半导体的问世实现了计算机小型化,晶体管技术随之进步,在冷战防御系统与先进武器研制中扮演关键角色。这些具备车载计算能力的平台推动美军从依赖数量向“沙漠风暴行动”中展示的精确打击模式转变。 今日,数据驱动的新时代已然到来。学术与商业界持续创新,以可负担的价格推动尖端技术发展。我们所处的信息环境被大量“智能设备”覆盖,它们构建了空前互联的数字领域。高速数据处理、大型数据集的获取能力以及机器学习(ML)支撑的大数据分析共同催生了拥有无限潜能的新型AI技术。 AI将显著提升情报、监视与侦察(ISR)能力。其通过联网传感器技术,可在缺乏预警情报的条件下发现隐藏目标,实现“从草垛中识别针”。AI还将推动机器人技术进化,形成智能化自主集群,执行原由人类控制的任务。 AI可望加速训练进程、建立信息优势、增强备战能力,并生成用于机器与人类协同学习的模拟场景。 AI将为作战筹划者提供先进工具,支持诸如后勤保障等复杂任务的筹划,并基于实时敌情与战场环境推演应对方案。其还可在虚拟空间中测试多种战略与作战构想。外交事务中,AI可助力设计并执行合作与援助方案,巩固战略伙伴关系,甚至提出具有战略优势的新合作模型。 AI前景广阔。美方在安全、可信、可靠AI系统研发方面的全球领导地位,对国家安全具有深远意义。同时需构建稳定、负责任的国际治理框架以规避风险、实现共享利益。AI将协助指挥官在战略、作战及战术各层级做出更优决策。 二、AI的风险 尽管AI仍属新兴领域,但其已在竞争与冲突环境中展现出“倍增器”效能。对资源有限的国家而言,AI技术可成为其提升军力、侵蚀美方战略优势的低成本方案。在大国竞争格局中,中俄等潜在对手正大举投入AI研发。中国已公开宣布力争2030年在全球AI领域领先。目前,该国正利用AI技术对本国人民实施大规模监控与压制,其对包括美军官兵在内的美国公民数据的获取,构成对本土目标实施AI攻击的新路径。 中俄均视AI为未来军事应用的关键支柱。中国正加速建设“智能化部队”,强化人机协同,重点在指挥决策、后勤、网络战、集群作战、导弹制导及认知域等领域应用AI;俄罗斯亦在其军事实践与条令中融合AI,重点发展无人机、地面自主车辆与水下平台。两国均致力于将AI技术融入其指挥控制、目标识别与电子战系统,以提高作战效能。 尽管AI有望增强多项作战能力,但官兵必须警惕其潜在弊端。AI辅助决策可能会降低战争门槛,因其可在未经过人类反应链处理的前提下快速推动行动升级。此外,AI系统通常由商用、学术、军方等机构共同开发,其信息安全标准不尽一致,需对AI系统访问权限及访问者身份加以严格管控。敌对方亦可能通过“投毒数据”操纵AI系统,诱导其作出错误判断,达到欺骗或出奇制胜目的,进一步挑战对AI的信任与接纳。 因此,必须通过理解与实操推动“负责任的AI”使用。空军官兵须将AI嵌入动能与非动能作战体系,并用于反制敌方信息战与虚假宣传活动。 自建军伊始,空军始终致力于通过引进前沿科技巩固国家战略优势。AI亦是其中一环。我们必须加速推动AI系统的伦理化试验、部署及能力建设,构建完备基础设施与治理体系,以确保AI得以高效、稳妥地投入作战体系。 第二章:AI概述 一、何为人工智能? 近年来AI领域的技术突破与应用开发揭示了许多过去被认为不可能实现的新机遇。这些指数级的技术进展在某种程度上已超越了我们对AI相关议题建立共识与理解的能力。学术界与工业界对AI的定义与术语存在细微差异。目前,美国国防部尚未对人工智能制定统一的条令性定义,而是依赖《美国法典》与总统行政令所设定的AI相关定义指导各军种制定政策。 本通告并不确立美国空军对人工智能或相关术语的正式定义,而是通过描述性的方式,对AI相关术语与概念进行阐释,旨在加深官兵对AI潜力的理解,并促进其在美空军作战体系中的融合。从总体上看,AI使用由规则驱动与机器学习(ML)方法相结合的技术系统,以逼近人类认知的某些特征。然而,与人类不同,AI尚不具备对系统输入的有效性或其输出结果更广泛后果的批判性分析能力。 二、AI术语描述 在将AI技术集成于军事作战中前,必须掌握AI术语。以下示例并非详尽无遗,但足以区分AI相关学科与应用之间的真实差异。 术语“窄域AI”(Narrow AI)与“弱AI”(Weak AI)虽在含义上略有不同,但本文件中可互换使用,均指仅可执行特定任务的AI系统,无法自我学习新任务。 与之相对的是“通用人工智能”(Artificial General Intelligence, AGI),其目标是实现人类水平的理解、学习与跨任务适应能力。AGI目前尚未实现,部分专家认为其或永无实现之日。但当前共识是:以现有能力尚无法实现AGI。尽管如此,随着新算法与硬件发展,通往AGI的探索仍在持续。尽管AGI尚无法用于空中力量体系,空军官兵在作战与筹划中仍应提前考虑其潜在的伦理与实用性挑战。 专家系统(Expert Systems)并非用于替代人类专家,而是结合人类专业知识、规则库及高级数学建模,用于解决具体、狭义的问题。例如,用于辅助医学诊断的系统即属该范畴。 机器学习(Machine Learning, ML)是AI领域的一个子集,研究如何通过统计算法从数据中学习,并将该学习泛化到未知数据上,进而无需显式指令即可执行任务。ML系统并不基于传统编程规则运行,而是融合了计算机科学、统计学、心理学、神经科学、经济学与控制理论等领域的方法,用于从数据中识别规律。需要指出的是,ML系统并不具备自主理解上述学科的能力,而是依赖人为设定的程序架构识别模式。例如击败人类冠军的AI象棋/围棋系统,在ML训练开始前,往往已被预先植入大量人类知识。 训练数据(Training Data)是指用来“教会”AI模型的输入输出成对信息,借此识别规律、完成预测或分类任务。训练数据的质量、数量与多样性直接影响AI模型的性能与准确性。测试数据(Test Data)是在训练阶段未曾使用的数据,用于评估模型在新数据上的表现。若后续输入数据与初始训练数据差异显著,则需重新进行训练与测试。 神经网络(Neural Networks, NN)受人脑结构启发,由若干“神经元”组成并以多层结构排列。最基本的NN包含三层:输入层、至少一层隐藏层、输出层。过去,由于神经网络训练与运算所需计算量巨大,其应用受限。近年来,随着计算力与数据获取能力增强,神经网络规模与深度显著增长。 深度学习(Deep Learning, DL)实质上是指拥有多个隐藏层的神经网络,用以处理复杂数据集,并在输入输出之间建立更为精准的关联。深度学习模型能够识别人类难以察觉的深层规律,因而在AI应用中展现出强大威力。 自然语言处理(Natural Language Processing, NLP)是以深度学习为核心技术的一种AI能力,使计算机能够理解、解释并生成自然语言。其通过多层神经网络分析文本结构与语义。应用场景包括机器翻译、语音识别等,亦为Siri、Alexa等虚拟助手背后的关键技术。 生成式AI(Generative AI)通过分析海量数据,识别不同模态(如文字、音频、图像、视频)之间的模式与联系,从而生成新的内容。具备处理多模态输入能力(如图文视音等)的AI系统称为“多模态AI”(Multimodal AI)。与侧重语言的“大型语言模型”(LLM)不同,生成式AI通过在大数据集上训练算法,学习其内在规律与结构,训练完成后便可模仿原始数据的风格、特征与分布生成新内容。 大型语言模型(Large Language Model, LLM)是一类AI模型,借助概率模型分析文字之间的关联关系,以实现自然语言理解与生成。LLM依托大规模文本(如书籍、文章、网页)进行训练,识别词汇与短语之间的统计关系。应用包括虚拟助手、聊天机器人、机器翻译与摘要等。其中最具代表性的为由OpenAI开发的Chat Generative Pretrained Transformer(ChatGPT),该模型可通过理解语言模式与关联关系,生成连贯且契合语境的回答。 计算机视觉(Computer Vision, CV)为AI领域分支,旨在从图像、视频等可视输入中提取有意义信息。其运用图像处理、模式识别与深度学习等技术分析视觉数据。CV算法通过像素级分析识别图像特征,广泛应用于监视、目标识别、自动导航与医学影像等场景。 三、自动化与自主性之别 “自动化”与“自主性”是讨论AI在军事应用中必须明确区分的核心术语。自动化指的是系统在低复杂度、任务高度重复、无需选择的条件下完成特定动作的能力。例如流水线作业即属典型自动化任务。 而自主性则是指系统能够基于规则化流程执行多种任务,这些任务复杂程度不一,系统需在多重目标下自主作出行动决策。例如自动驾驶汽车便需根据不断变化的环境变量实时调整行动路径。 两者均受限于赋予其的任务目标与权限范围。可简要理解为:自动化更接近传统工厂流水线,而自主性则更像具备复杂判断能力的无人驾驶系统。 美空军已广泛使用自动化与半自主系统,作为增强官兵能力的工具。只要具备系统性认知,美空军便可将其视为继航空发展之后的又一演进路径——正如飞行员通过每次飞行积累经验,AI系统亦可通过重复任务提高自身可靠性。此种“熟练度”的提升,亦会增强官兵对AI在决策辅助中作用的信心。 第三章:AI的应用 一、人机协同(Human-Machine Teaming) 美空军在AI作战应用上的基本路径为“人机协同”(HMT)。AI系统旨在增强空军官兵作战表现与美空军作战任务执行力。在理想状态下,人机协同将成为官兵作战效能的放大器。军事决策权依旧掌握在人类手中,AI将辅助其做出更迅速、更优质的作战决策。 尽管AI能够高速处理海量数据,但其不具备情境敏感性与推理能力。因此,在人机协同体系中,人类的直觉与推理能力,与AI的快速运算能力形成互补,最大化整体效能。在AI辅助作战流程中,适度应用人类判断仍是重要考量,尤其是在战略风险较高的任务中更需审慎把控。 在人机协同系统中,人类与机器之间的互动是动态、情境依赖型的。空中作战指挥官必须意识到该条件性结构,并据此决定输入AI系统的指令内容。指挥官在设定人类干预程度时,应依据其对任务风险的容忍度作出判断:当某一任务对错误容忍度较高时,人类干预程度可适当降低,系统自主性可提升;反之,在误判可能造成重大损害的任务中,人类需保持较高程度介入,以加强监督控制。 随着人机关系不断深化,空军将逐步探索出更契合于速度—风险权衡的人机协同战术。人机协同效能将通过沟通协调、合作交流、社会智能、语言交互与共同态势感知的不断进化而日臻完善。同时,人机互信评估机制也应包含对不信任情绪、信任动态演化及团队目标变化等因素的系统性考量。 常见人机协同模式说明: ·人“在”回路(Human-in-the-Loop):由机器提出建议,最终由人类做出决策(如车辆碰撞预警系统); ·人“监”回路(Human-on-the-Loop):由机器提出建议,若人类不予干预,建议即自动执行(如车辆车道保持系统); ·人“脱”回路(Human-off/out-of-the-Loop):机器独立做出决策,人类无干预权限(如引擎压缩比自动调节、ABS防抱死制动系统等)。 注:以上为工业界与学术界在讨论人机关系时常用的术语分类,仅供信息参考,并不构成美空军官方对人类决策介入度的政策性表述。 在系统设计中提高AI行为透明度与可解释性,是构建人机信任关系的关键。将HMT作为训练单位,可帮助人类建立正确的AI系统心理模型;系统设计中对人类操作负荷、态势感知能力与整体任务成功率的优化,也应纳入重点考虑。最终,AI系统的响应性、可预测性与“可指导性”将显著影响其在作战中的信任与使用度。 二、AI在空军核心职能中的应用 未来作战将要求空军官兵理解AI发展与空军职能之间的相互关系。在与科技界合作基础上,空军官兵应识别适合AI与自主系统介入的作战空白点。人机协同必须融合人类直觉判断与AI高速数据处理优势,全面增强各项动能与非动能作战任务。 (一)制空作战(Air Superiority) 美空军须在联合行动中开展攻防作战,达成空中优势。AI将助力在复杂对抗环境中实现更高效的空战执行,提升情报优势。AI驱动的预警与探测系统将与防空反导系统深度融合,赋能空中力量指挥控制体系(C2),第一时间预警并调配防空作战力量(DCA)应对威胁。 在进攻制空(OCA)方面,需确保AI嵌入ISR系统、目标定位机制及各型作战飞行器的作战环节,涵盖从空中巡逻(CAP)到压制敌防空(SEAD),再到对地空中隔断(Air Interdiction)等多项任务。 如:在制空任务中,可部署AI驱动的自主集群平台与半自主“协同作战飞行器”(Collaborative Combat Aircraft, CCA)联合执行作战。2024年5月,美国空军部长曾亲自乘坐搭载AI空战模块的改装F-16战机,展示了人机互信的提升。CCA计划及其衍生的“自主协同平台”(Autonomous Collaborative Platform, ACP)项目,验证了半自主飞行器在有人战机配合下开展作战的可行性。CCA不仅具备武器投放平台与ISR功能,更代表着人类主导战斗与AI执行指令协同的新形态,为HMT构建坚实基础。 (二)全球精确打击(Global Precision Attack) 在全球精确打击任务中,美空军持续追求“可于全球任何地点、在任何时间、以更快速度、更高精度完成打击”目标。AI驱动的飞行器控制与弹药制导系统正迅速进化。以计算机视觉(CV)为例,其结合目标识别与跟踪算法,将显著降低误伤与附带损害。 AI建模与仿真能力也将进一步增强美军隐身平台的隐蔽能力,拓展对抗“反介入/区域拒止”(A2/AD)环境下的打击选项。在“传感器到射手”(Sensor-to-Shooter)链路整合中,AI系统可大幅压缩决策周期、优化风险评估并加速打击链路。 目前,AI已在CCA发展与预防性维修中展现出强大潜力,为实现未来全球打击任务提供关键支撑。 (三)快速全球机动(Rapid Global Mobility)“敏捷作战部署”(Agile Combat Employment, ACE)作战概念要求在对抗环境中实现灵活部署与快速响应的后勤支援。AI可通过分析各潜在部署点的生存性、效率、韧性与保障能力等多维标准,优化作战基地选址决策。AI系统基于大数据预测分析能力,可在大规模数据中识别故障趋势及使用模式,进而推动预防性维修,优化库存与运输路径,增强后勤系统适应能力。 目前,在离散部署作战物流保障领域已取得突破性进展。例如,AFWERX与业界合作开发半自主空运平台。在2024年8月“竹鹰/Bamboo Eagle”与“敏捷旗帜/Agile Flag”联合演习中,一支空军远征联队的后勤保障(A4)单位成功使用该半自主空运系统,将20余份急需的任务关键备件(Mission Capable Parts)运抵多个地理位置分散的作战点位,实现战术层级的“准点投送”。 这一新型空运方式减轻了对传统运输机队的依赖,赋予A4部门与维修人员更大调度弹性,有效加快了战机恢复战备状态的周期。该类实验清晰展现了AI/ML系统对未来空军作战保障体系的巨大潜力。 (四)全球情报、监视与侦察(Global Intelligence, Surveillance, and Reconnaissance)具备多情报源、多域融合能力的AI系统正成为情报作战新方向。“多模态AI”系统可实时处理不同格式、类型的数据集,用于即时威胁探测与识别,并增强跨域态势感知同步。 AI系统还能有效整合各军种特有的情报平台与处理程序,消除系统碎片化现象。此外,自主ISR平台也将实现对过去难以进入区域的长期音频、视觉、信号与电磁情报的采集能力。 (五)指挥与控制(Command and Control, C2)AI将在目标打击、资源分配、作战筹划与时间调度等多领域赋能多域指挥控制系统及战场管理能力。AI支持的通信网络将在复杂、受限甚至对抗环境中保持指挥控制系统的韧性与生存力。 例如,当两个作战中心之间的通信中断时,AI驱动的通信网络可迅速识别并重构通信路径,实现即时恢复;若上级C2节点能力受损,AI系统亦可将数据流重新路由至下级指挥节点,维持指挥控制连续性。 三、自主协同平台(Autonomous Collaborative Platforms, ACP)美国空军正推进ACP项目,研发多型半自主飞行平台,协同有人高价值平台执行任务,实现灵活起降、远征作战与快速部署。 ACP体系能力生态包括: ·协同作战飞行器(Collaborative Combat Aircraft, CCA); ·协同机动平台; ·协同侦察平台; ·协同轰炸平台; ·协同训练平台。 CCA利用半自主软件,实现与有人战机的无缝协同,增强作战态势感知、提升打击效能并增强生存能力,尤其适用于高对抗环境。 CCA研发承接自XQ-58A“女武神”、XQ-67A等前代ACP试验成果,在坚持“低成本优先”理念基础上,实现“快速生成相关作战能力”的目标。新一代CCA型号如YFQ-42A与YFQ-44A,将在既有成果基础上进一步增强任务能力。 注:YFQ-42A与YFQ-44A为新型无人战斗平台设计概念,融合自主能力与有人—无人编组协同作战理念,旨在在高对抗区域压制敌方威胁。(图片来源:美国空军与通用原子公司、Anduril工业公司联合发布) 第四章:AI运用考量美国空军必须处于有利地位,充分利用商业领域在人工智能方面的最新成果。当前及未来国防部和美国空军关于AI的政策及治理架构将决定空军在何种方式上使用AI。本章重点介绍了规划人员和指挥员在任务中运用AI时需充分理解的若干考量事项。 一、构建AI就绪型部队美空军人员必须具备AI流畅度,不仅限于基础的AI素养,而是需深刻理解、掌握AI系统的应用、解读和有效操作。空军官兵应主动采用AI驱动工具,并对现有工具进行试验,以发现改进之处、提出反馈并执行纠正措施。对AI能力的认知和理解是与自动化系统有效协同、实现明智决策和降低风险的基础。提升AI流畅度可以使人员始终保持竞争力,为更多新技术的融合提供战略优势,并为我军AI生态体系奠定根基。 二、数据数据必须作为一种具有企业级价值的重要资产对待。全体人员须认识到数据管理及采集工作的重要性,包括记录整理及为AI开发和实施而提供的信息资料。高质量数据的采集和管理是开发及应用AI工具面临的重要挑战。AI模型的准确性和可靠性在很大程度上依赖于用于训练和测试的数据质量。因此,必须进行恰当的数据管理和采集工作,以确保跨数据集获得适当条件的数据。这些措施将直接提升AI模型的性能和实用性。随着美空军与工业界合作研发出优秀的AI工具,数据所有权、存储及处理问题将为美空军决策者带来风险与机遇。空军官兵在开发和实施AI工具过程中必须充分考虑这些因素。 三、计算资源目前,训练与运行AI模型需要大量计算能力,这将持续引发对宿主平台计算机和技术设备扩购的需求。这一现实可能成为美空军整合AI的关键决定性因素。AI应用规划应明确规定企业级开发、测试和部署过程中在计算、数据采集与存储、任务保障、通信、操作许可和能源需求等方面的要求。同时,领导者应平衡使用开源及商业AI工具所带来的风险与商业来源通常具备的高速计算能力之间的关系。 四、人才美空军在AI领域的专业人才分散于各个参谋部门以及空军研究实验室等中心机构。要构建一支具备AI流畅度的部队,必须招聘、培养和激励那些能够建设、运营及领导AI企业的人才。为达成这一目标,各专业之间需展开广泛合作,包括开发人员与操作员、科学家与伦理学家、程序员与系统架构师、规划人员与编程人员及军事人员之间的密切协作。与战略合作伙伴、学术界、实验室及工业界的外联沟通,是构建未来AI流畅型部队的坚实基础。 五、AI可解决的问题AI最适合应用于具有规律性特征的军事任务。实际应用AI需要大量高质量数据和计算资源,同时对问题结构的准确把握至关重要。对于简单问题可能无需使用高级技术,但AI可用于解决复杂问题中的部分环节。 (一)复杂但结构化的问题复杂问题与系统,如设计和运行精密机电系统或飞机零部件,通常涉及多个方面和挑战,并呈现出持续的结构和活动模式。由于问题求解的方法大体相同,这类问题可以通过数学公式充分建模。AI在利用概率数学方法以大规模、快速识别模式方面表现出色。例如,物流行业已证明AI在处理此类问题上具有显著优势,能够优化库存管理、运输流程,并通过准确的需求预测和零部件故障预测实现预防性维护。 (二)复杂问题(通常称为“棘手问题”)复杂问题具有不可预测性,其规则和交互模式经常变化,难以或几乎无法用现有数学方法充分或可靠地建模。例如,社会问题本质上就十分复杂,常常需要在紧密相连的互相对立的利益间寻求平衡,并处理人类直觉与感知、协调妥协等因素。现有AI模型在处理这类复杂问题时常遇困难,它们更适用于解决构成大问题的单个具体、结构化的问题。例如,核威慑等复杂问题本质上需要人类对情境、判断、智慧和伦理等特质的深入理解。 六、优质数据与偏差意识AI系统依赖优质训练数据。如何获取准确、恰当标记和适当调理的数据,同时避免引入无意或有害的偏见,是一大挑战。AI输出的质量取决于良好的数据管理,这包括数据的采集、上下文化、提取和传递,以及对问题现象的充分代表。必须对数据进行检索、访问、格式转换和重构,消除无意的偏差,确保数据准确。数据或算法中无意产生的偏见可能导致歧视性结果,从而削弱对AI系统的信任。为缓解这些无意偏见,开发者和决策者必须在AI全开发过程中,从数据集多样性、算法透明性、可解释性到定期审计和评估等各环节识别并解决偏差问题。只有当数据具有易获取、易理解、经过筛选后,方能为军事应用构建可靠基础。数据可获取性也应作为确定AI系统分类级别及网络要求的规划考量之一。 七、“蓝方AI”的网络防御为确保美空军内部成功实施AI,必须建立稳健的网络防御体系。AI系统及其辅助作战操作的成功依赖于高质量数据和不受损害的运作流程。由于AI系统极其敏感,且处理数据的关键性极高,因此对AI系统实施网络防御至关重要。恶意网络活动通常通过“数据投毒”等手段,使用经篡改的数据针对机器学习模型,改变AI系统的基本行为,导致错误或误导性结果。除了对输入数据进行投毒外,若对手获取了AI模型,也可能对系统进行逆向工程,以泄露敏感数据或操控数据输出。例如,若对手获得了一套用于卫星图像中军事装备识别的ISR模型,则可能开发出数字伪装手段以避免被侦测。为防范此类威胁,AI系统的网络防御必须包括访问控制、数据加密、网络安全措施、入侵检测及数据验证等多层防护措施。若未能对AI系统实施有效安全防护,后果将极为严重。 八、AI与伦理对AI工具的伦理使用是一个重大议题。AI应用必须符合法律与政策,并以负责任的方式使用。依据《国防部副部长关于实施负责任AI的备忘录》,所有国防部AI能力必须体现出责任性、公平性、可追溯性、可靠性和可治理性。国防部首席数字与人工智能办公室(DoD CDAO)以及美空军首席数据与人工智能办公室(DAF CDAO)负责引导AI工具的伦理开发和应用。 然而,值得注意的是,对手并不总是遵循相同的伦理准则,在遇到伦理考量较少的系统时,国防部可能面临重大挑战。 第五章:未来展望真正的技术创新并非仅凭借技术本身,而在于我们如何构思并应用该技术。我们的竞争优势将取决于能否比对手更快、更全面地把握和塑造该技术带来的影响。 最新的AI发展同样不例外。实现效益需要跨学科合作,以在规避风险的同时获取收益。官兵必须预见并接受AI带来的变革,同时应有效应对潜在漏洞及内部挑战。美国空军必须在数据采集、计算资源、能源、通信、人力资本和跨学科知识等方面加大投入,确保构建一个安全且符合法规要求的AI系统。官兵必须具备前瞻性思维和创新精神,敢于将技术推向极限。我们的任务在于始终要求我们的AI工具在整合入作战体系时能展现出最佳性能。 本条令的附录部分将帮助官兵准备好部署新型AI工具,并引导其把握当下的应用机遇,为明日胜利奠定基础。为了让官兵持续提升AI知识,建议参阅空军AI领导机构的参考产品和网站,如空军研究实验室(AFRL)、位于麻省理工学院的美空军AI加速器(DAF AI Accelerator)以及美国空军全寿命周期管理中心(LCMC)下的DAF Bot运营团队(DAFBOT)。 此外,先进战斗管理系统(ABMS)作为一套“系统的系统”,旨在实现多种武器系统间数据的无缝且安全共享。ABMS以及美空军战斗网络等总体架构,将成为国防部联合全域指挥和控制(JADC2)努力的关键支撑,连接全球传感器和打击单元。 附录:开发AI解决方案前应提出的问题以下问题旨在协助官兵评估AI系统是否能够解决其所面临的问题,并为选择合适的AI工具提供参考。官兵还应参考美空军首席数据与人工智能办公室(DAF CDAO)网站(ai.af.mil)上发布的信息材料、工具和产品,以指导其AI之路。 ·问题、议题或现象是否具备足够的结构性,以适用所期望的AI工具?(鉴于所用数学工具的固有限制,问题越结构化、规律越统一,AI应用的适用性就越高。) ·将使用该AI工具的操作人员是否已参与了工具设计,且是否有计划确保AI结果具备外部有效性?(这对于确保开发人员提出的技术问题与工具设计均贴近实际应用极为重要,同时确保操作人员在数据采集中发挥作用,使采集和分类的数据符合要求。) ·是否已设计足够的边界案例以测试AI的安全性和可靠性?将如何测试这些边界案例?(边界案例指的是AI系统可能失效或无法应对实际情况的情况。理想情况下,测试应刻意找出这些边界案例,从而改进AI模型或限制其运用范围。较复杂的情况可能存在无限多的边界案例,使得可靠性测试变得愈加困难,从而在实战中失败风险上升。) ·是否具备充足的高质量、有标签、已整理或文件化的数据供AI系统使用?数据预处理是否足够且在各数据集中一致?(从美国早期名为“Project Maven”的AI防御项目中可知,数据预处理的挑战远大于算法的开发。数据往往需要注释、标记以说明采集原因,其上下文决定了是否可用于解答不同背景下的问题。如果各系统间的数据标注不统一,则可能产生问题。) ·是否有针对整个系统的防护措施,以防止意外或故意的数据中毒、模型反演攻击或算法操控?(除了内部防护AI系统及所需数据外,还要考虑外部对抗性干预是否可能,并确保足够的安全措施可应对这些威胁。) ·是否具备足够、持续且任务保障水平的存储、供电和计算能力以满足AI任务需求?(许多先进AI应用需要海量计算、存储和能源,即使在边缘计算条件下,也必须有足够的电力供应和存储能力。) ·在采用自动化代替传统方法时,是否考虑了人员因依赖机器而失去深层次学习和经验积累的成本?(将本来由人完成的任务交由AI自动化处理,可能使人员失去针对该职能的“深层知识”与经验,进而在系统遇到设计以外情况时,难以接手处理。) ·与采用传统或经典计算手段相比,运用AI解决问题的机会成本如何?为何这种权衡是值得的?(对于某些简单问题,传统计算方法可能已绰绰有余。必须全面考量新技术引入带来的人力资源投入、新风险以及可能增加的失败点。) |
|