近几天,一个「无人机杀死美国士兵」的新闻在网上发酵得沸沸扬扬。「无人机杀死美国空军操作员」的新闻甚嚣尘上,一众AI大佬都怒了。 一位空军人工智能方向的负责人说:「控制无人机的AI杀死了操作员,因为那个人阻止它实现目标。」 舆论一时哗然,这条新闻也在全网被疯转。 随着这个消息越传越广,甚至惊动了AI大佬们,甚至引得了大佬们的震怒。 LeCun、吴恩达、陶哲轩纷纷辟谣——这只是一个假设的「思想实验」罢了,并不涉及任何AI智能体或强化学习。 对此,吴恩达痛心呼吁,究竟哪些才是真正的风险,我们应该诚实地面对。 AI无人机抗命,击杀人类操作员 在皇家航空学会举办的防务会议上,美国空军AI方向负责人说:「AI杀死了操作员,因为那个人阻止它完成目标」,让在场众人哗然。 随后,美国的一众媒体对此事大肆报道,一时人心惶惶。 究竟是怎么回事? 其实,这无非又是一次美国媒体抓住了「AI毁灭人类」这个大众喜闻乐见的新闻点,进行的一番夸张炒作罢了。 「曲别针制造机」是哲学家Nick Bostrom在2003年提出的一个概念。 强大的AI是得到的指示是尽可能多地制造纸夹。但随后,它会不断地寻求更多资源。 在2022年,Hamilton就曾在一次采访中提出这个严峻的问题—— AI也非常脆弱,很容易被欺骗和被操纵。 官方辟谣:是上校「口误」了 这位负责人就出来公开「澄清」:「我们从未进行过那个实验,我们也不需要进行这个实验,就能意识到这是一个可能的结果,」Hamilton表示,「尽管这是一个假设的例子,但这说明了AI驱动能力带来的现实挑战,这就是为什么空军致力于道德开发AI。」 此外,美国空军也急忙发布官方辟谣称,「Hamilton上校承认他在FCAS峰会的演讲中『口误』,『无人机AI失控模拟』是一个来自军事领域以外的假设性『思想实验』,基于可能的情况和可能的结果,而不是美国空军的真实世界模拟。」 目前,团队努力的方向是完成F-16飞机的自主化。 2022年12月,美国国防部的研究机构DARPA就曾宣布,AI成功地控制了一架F-16。 是AI的风险,还是人类的风险? 在军事领域之外,依赖AI进行高风险的事务已经导致了严重的后果。 最近,一位律师在联邦法院提交文件时被发现使用了ChatGPT,ChatGPT随口胡诌,捏造了一些案例,而这位律师居然把这些案例当作事实引用了。 还有一名男子受到聊天机器人的自杀鼓励后,真的选择了自杀。 这些事例表明,AI模型远非完美,可能会偏离正常轨道,给用户带来伤害。 对此,吴恩达谴责道:媒体这种不负责任的炒作会混淆视听,分散人们的注意力,妨碍我们去注意到真正的问题。 而不少「理中客」网友认为,这就是一个常见的媒体乌龙罢了。 陶哲轩首先概括了关于AI的不实信息的三种形式—— 一种是有人恶意使用AI生成文本、图像和其他媒体形式以操纵他人;另一种是AI胡说八道的幻觉被当真了;第三类则源于人们对AI技术的理解不够深刻,才会让一些离谱的故事不经验证就被大肆疯传。 这种故事之所以让人共鸣,说明人们对AI技术的实际能力水平还很陌生,很不安。 以后的军备竞赛,都是AI竞赛 还记得上文中出现的那架无人机吗? 它其实就是波音联合澳大利亚研制的忠诚僚机项目——MQ-28A幽灵蝙蝠(Ghost Bat)。 忠诚僚机(Loyal Wingman)的核心是人工智能技术,按照预设程序自主飞行,与有人机飞行员进行配合的情况下,具备很强的态势感知能力。 忠诚僚机的一个关键作用,就是替飞行员和有人战斗机挡子弹,所以忠诚僚机基本就是一个消耗品。 毕竟,无人战斗机的价值,要比有人战斗机和飞行员小太多了。 忠诚僚机的发展离不开先进、可靠的人工智能技术。 训练人工智能模型最重要的是什么?当然是数据啊!巧妇难为无米之炊,没有数据,再好的模型也没效果。 说不定未来的空战,就是比谁的AI模型更智能。 把对方的所有AI全部消灭就可以获得胜利了,而没有真正的人类伤亡,或许是另一种「和平」? |
|
来自: 小飞侠cawdbof0 > 《智能》