分享

AI无人机“误杀”事件震动全球!吴恩达陶哲轩怒斥炒作,揭露真相

 小飞侠cawdbof0 2023-07-29 发布于北京

近几天,一个「无人机杀死美国士兵」的新闻在网上发酵得沸沸扬扬。「无人机杀死美国空军操作员」的新闻甚嚣尘上,一众AI大佬都怒了。

图片

一位空军人工智能方向的负责人说:「控制无人机的AI杀死了操作员,因为那个人阻止它实现目标。」

舆论一时哗然,这条新闻也在全网被疯转。

图片

随着这个消息越传越广,甚至惊动了AI大佬们,甚至引得了大佬们的震怒。

LeCun、吴恩达、陶哲轩纷纷辟谣——这只是一个假设的「思想实验」罢了,并不涉及任何AI智能体或强化学习。

对此,吴恩达痛心呼吁,究竟哪些才是真正的风险,我们应该诚实地面对。

图片

AI无人机抗命,击杀人类操作员

在皇家航空学会举办的防务会议上,美国空军AI方向负责人说「AI杀死了操作员,因为那个人阻止它完成目,让在场众人哗然。

随后,美国的一众媒体对此事大肆报道,一时人心惶惶。

图片

究竟是怎么回事?

其实,这无非又是一次美国媒体抓住了「AI毁灭人类」这个大众喜闻乐见的新闻点,进行的一番夸张炒作罢了。

图片

「曲别针制造机」是哲学家Nick Bostrom在2003年提出的一个概念。

图片

强大的AI是得到的指示是尽可能多地制造纸夹。但随后,它会不断地寻求更多资源。

图片

在2022年,Hamilton就曾在一次采访中提出这个严峻的问题——

AI也非常脆弱,很容易被欺骗和被操纵。

官方辟谣:是上校「口误」了

这位负责人就出来公开「澄清」:「我们从未进行过那个实验,我们也不需要进行这个实验,就能意识到这是一个可能的结果,」Hamilton表示,「尽管这是一个假设的例子,但这说明了AI驱动能力带来的现实挑战,这就是为什么空军致力于道德开发AI。

此外,美国空军也急忙发布官方辟谣称,「Hamilton上校承认他在FCAS峰会的演讲中『口误』,『无人机AI失控模拟』是一个来自军事领域以外的假设性『思想实验』,基于可能的情况和可能的结果,而不是美国空军的真实世界模拟。」

图片

目前,团队努力的方向是完成F-16飞机的自主化。

2022年12月,美国国防部的研究机构DARPA就曾宣布,AI成功地控制了一架F-16。

是AI的风险,还是人类的风险?

在军事领域之外,依赖AI进行高风险的事务已经导致了严重的后果。

最近,一位律师在联邦法院提交文件时被发现使用了ChatGPT,ChatGPT随口胡诌,捏造了一些案例,而这位律师居然把这些案例当作事实引用了。

图片

还有一名男子受到聊天机器人的自杀鼓励后,真的选择了自杀。

这些事例表明,AI模型远非完美,可能会偏离正常轨道,给用户带来伤害。

图片

对此,吴恩达谴责道:媒体这种不负责任的炒作会混淆视听,分散人们的注意力,妨碍我们去注意到真正的问题。

图片

而不少「理中客」网友认为,这就是一个常见的媒体乌龙罢了。

图片

陶哲轩首先概括了关于AI的不实信息的三种形式——

一种是有人恶意使用AI生成文本、图像和其他媒体形式以操纵他人;另一种是AI胡说八道的幻觉被当真了;第三类则源于人们对AI技术的理解不够深刻,才会让一些离谱的故事不经验证就被大肆疯传。

这种故事之所以让人共鸣,说明人们对AI技术的实际能力水平还很陌生,很不安。

图片

以后的军备竞赛,都是AI竞赛

还记得上文中出现的那架无人机吗?

它其实就是波音联合澳大利亚研制的忠诚僚机项目——MQ-28A幽灵蝙蝠(Ghost Bat)。

图片

忠诚僚机(Loyal Wingman)的核心是人工智能技术,按照预设程序自主飞行,与有人机飞行员进行配合的情况下,具备很强的态势感知能力。

图片

忠诚僚机的一个关键作用,就是替飞行员和有人战斗机挡子弹,所以忠诚僚机基本就是一个消耗品。

毕竟,无人战斗机的价值,要比有人战斗机和飞行员小太多了。

图片

忠诚僚机的发展离不开先进、可靠的人工智能技术。

图片

训练人工智能模型最重要的是什么?当然是数据啊!巧妇难为无米之炊,没有数据,再好的模型也没效果。

说不定未来的空战,就是比谁的AI模型更智能。

图片

把对方的所有AI全部消灭就可以获得胜利了,而没有真正的人类伤亡,或许是另一种「和平」?

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多