分享

人类应该畏惧杀手机器人吗?

 全球技术地图 2020-11-02

全球技术地图

创新丨前沿丨科普丨资讯

毫无疑问,一些军事方案的确需要自动化技术。但战争中的一些决策还需要权衡利弊、做出决断,至少目前而言,这还是人类独有的能力。

最近物理学家史蒂芬·霍金(Stephen Hawking)警告世人:要小心人工智能和强大的自主武器。自动化技术的研发进程一日千里,其可能带来的风险也引发了国际热议。

上周,联合国各国对致命性自主武器,即“杀手机器人”的讨论进入了第四个年份。联合国关注的是未来武器,而数十年来,那些击落来袭导弹的简单自动化武器早已广泛投入使用。

驱动自动驾驶汽车的电脑技术也可以用来研发智能自主武器。

近来,机器智能的发展让更多的先进武器得以自主狩猎目标。今年年初,俄罗斯武器制造商卡拉什尼科夫(Kalashnikov)宣布其正在研发基于神经网络的“全自动化战斗模块”,可以使武器自动识别目标并做出决定。

不管卡拉什尼科夫所说的是否正确,这种能使自主定位机器成为可能的基础技术正向我们走来。

这几年来,一个由若干非政府组织集结的联盟要求在自主武器研发成功之前,先发制人签署禁令。这些人忧虑颇多,其中之一便是唯恐自主武器会造成更严重的平民伤亡。而那些反对实施禁令的人认为:相比于人类,自主武器可以更精准的打击敌方目标,避免平民伤亡,就像在未来的某天,自动驾驶汽车可以使道路更安全一样。

基于神经网络的图像分类机器可以在某些基准图像识别测试中战胜人类。在一些需要速度和精准度的情形里,机器也做得得心应手。

机器所具有的优势表明,在某些战争情形里,它的确比人类更优秀,比如快速判断一个人是否持有武器。机器还可以检测人体行动,捕捉潜在可疑行为,当一个人伸手去拿可能是潜藏武器时,它比人类行动更快,也更可靠。

尽管如此,现在的机器智能还有很多缺点。神经网络在欺骗攻击(发送虚假信息)面前变得不堪一击,只能遭受愚弄。人们可以利用“虚假影像”操纵图像分类系统,让它把这个图像当作另一个,还丝毫不会起疑。

更甚者,这些虚假图像还可被秘密嵌入常规图像里而不被人类察觉。敌人不需要知道神经网络的源代码或者训练数据就可进行上述操作,若这些系统真的投入使用,这也成为一个令人不安的漏洞。

更为普遍的是,现在的机器智能比较脆弱,缺乏人类智慧的顽健性和灵活性。即使是一些最为令人惊叹的机器学习系统,就像DeepMind研发的AlphaGo,智力也非常狭窄。虽然AlphaGo在下中国围棋时无人可挡,但它学习的是围棋标准的19x19棋盘,据报道,它在不同棋盘的对战中遭遇惨重失败。

在战争中,机器智能的上述弱点是一个非常棘手的问题,敌人也有操纵这些机器的机会,并可以尝试把它们逼出程序的界限。人类就更擅长灵活地应对异常状况,这在战场上是一种无比重要的能力。

人类还能够理解战争的道德后果,而现在的机器对这些一无所知。战争中的许多决定并没有简单的答案,也需要深思熟虑、权衡利弊。

我是一名参加过伊拉克和阿富汗战争的游骑兵(Army Ranger),曾亲自面对这些状况。机器不能衡量一个人的生命价值。美国参谋长联席会议(US Joint Chiefs of Staff)副主席、空军上将保罗·塞瓦尔(Paul Selva)曾多次强调使用武力过程中保持人类责任的重要性。今年7月份的时候,他在参议院军事委员会(Senate Armed Services Committee)中说道:“我认为让机器人决定是否夺取一个人的性命并不明智。”

各国面临的挑战是如何恰当地利用自动化技术的优势,尤其是它的速度和准确度,而不牺牲人类的判断力或有损道德责任。

其实有许多方式可以让武器更自动化、更加智能,用来拯救更多的生命。

与此同时,各国在实现这些想法的时候,也不应放弃人类具有的顽健性、灵活性和决策道德责任感。想要在战争决策中实现人类与机器的平衡,并不能一蹴而就。

眼下情况已经如此,毫无疑问一些军事方案的确需要自动化技术。当然,战争中的一些决策还需要权衡利弊、做出决断,而且至少目前而言,这还是人类独有的能力。

编译丨路会会

选自丨CNN

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多