分享

李飞飞PK赫拉利:长盛不衰的“AI威胁论”到底有何魅力?

 昵称52221680 2019-05-04

第四回合:AI全球竞赛,会比核竞赛更可怕吗?

赫拉利还提到,目前AI的发展只有中、美以及极少数国家具备竞争优势,而大多数亚欧非国家的整体技术水平甚至都不如谷歌亚马逊这样的科技企业。

而且,随着AI产业的发展,各国之家的竞争意味也越来越浓。比如欧洲主动建构数据壁垒,美国对中籍技术人员加强签证审查等等。目前的趋势是,国家竞争开始大于合作。这显然不是一个好消息,甚至可能引发一场数字化的全球殖民。

但李飞飞并不同意这种判断。她认为目前AI在全球范围内的合作和交流非常频繁,远超出赫拉利的想象。斯坦福每年与全球合作产生的科学论文就数不胜数,GitHub这样的开源服务社区也越来越多。而且,越来越多掌握技术优势的巨头企业也开始推崇“AI民主化”的思路,在产业发展上扮演起了分享者的角色。

一些AI发展较为落后的国家,还是有很多机会和时间去思考,制定自己的AI发展战略的。

李飞飞PK赫拉利:长盛不衰的“AI威胁论”到底有何魅力?

(尤瓦尔·赫拉利)

四个回合的交锋下来,我想大多数人也很难得出什么清晰有效的结论。这甚至称不上是一场论战,而是两种看待AI的思维方式之间的交谈。赫拉利如同一个操心的老母亲,痛心疾首地规劝青春期的AI,谁知道前面埋了多少隐患啊,猥琐发育,别浪~

恰好碰上当惯了“MT”的李飞飞,对于技术非常熟悉,更擅长解决问题,不会对背后的哲学危险想太多。

两个人都想将对方引入自己的逻辑框架和经验体系,却又接二连三地自说自话。

李飞飞就在对话中开了一个玩笑,说“科学家们真的很忙,我羡慕哲学家们,他们可以只提出问题来,用几千年来反复讨论却没有个答案,而我们科学家们却要马上回答。”

一种“我跟你谈理想,你跟我谈现实”的无力感觉,几个回合下来,作为观众的我都感觉有点受不住了。

这里不妨列举几个相爱相杀的“cp”,大家品品看是不是熟悉的配方和味道。

一个恒久的命题:该不该对AI常怀恐惧?

早在五年前,类似的谈话就曾在另外两位大佬:特斯拉的创立者埃隆马斯克,和Facebook创始人及CEO扎克伯格身上发生过。

马斯克是一个坚定的“AI反对者”。他曾经一再通过电视和各种社交媒体渠道提醒全世界,人工智能“可能要比核武器更危险”。为了防范AI风险,马斯克还出资建立了独立人工智能实验室OpenAI,研究目标是开发确保不会失控的超级智能技术。

不过,与赫拉利不同的是,马斯克认为人类想要与超级AI并存,必须让大脑与机器直接联系。为此,他还创办了一家名叫Neuralink的公司,投资总额高达1亿美元,来研究通过电脑与人类大脑连接的“神经界面”。

但扎克伯格认为,马斯克对人工智能的看法“相当不负责任”,完全就是杞人忧天,还会威胁到自动驾驶和AI医疗等对人类有益的技术进步。

为了扭转马斯克的念头,2014年11月19日,扎克伯格邀请马斯克到家中共进晚餐,列席的还有Facebook人工智能实验室的两名顶级研究人员以及另外两位Facebook高管。

虽然是1v3,但马斯克完全没有在怕的。Facebook的代表们试图通过一顿晚餐让马斯克相信自己对于人工智能的看法是错误的,但除了费了点口水,并没有起到任何作用。

后来扎克伯格还为此讽刺过马斯克,“已经和马斯克讨论过这件事,他对这个问题的理解非常有限。”

对于AI,Facebook的态度基本上和科技行业的看法是一致的,那就是只要能让世界变得更美好,就是好的技术。

产业界争论不休,学术界也存在分歧。

已故的物理学家史蒂芬·霍金(Stephen Hawking),就公开表达了对人类创造出比自己更聪明机器的担忧。提醒人类应该在重度押注AI之前认真考虑所产生的后果。

康奈尔大学计算机科学教授、贝尔实验室前研究员Bart Selman也认为目前研究的系统能力过于强大,“我们现在还无法理解它的影响力。”

但麻省理工学院的机器人专家Rodney Brooks却认为“AI威胁论”并不科学,得出这样不能被论证对错的结论,是科学家们所不能接受的。

在近日对全球23位顶尖AI学者的一次调查中,其中包括了DeepMind首席执行官Demis Hassabis,谷歌AI首席执行官Jeff Dean和斯坦福AI负责人李飞飞等,想要在有生之年见证AGI(通用人工智能,也是令马斯克焦虑的“超级智能”)的实现,几乎不可能。

目前人类已经拥有了成千上万的AI系统。可涉及到一般的脑力活动时,还没有一个AI系统能够比得上老鼠,更别说超过人类了。

对此,艾伦研究所的负责人Etzioni表示,今天的人工智能系统依然非常有限,花太多时间去担心它的安全性,完全没有意义。

硅谷有句谚语:我们会高估三年内的成果,但低估10年后的成绩。目前看来,这种观点上的反复争论,正恰如其分地体现了这一点。

对于AI这样复杂的领域来说,哲学与科学的反复博弈,是一个长期且必经的过程,未来还将持续进行下去。如何在人类社会上架设智能,没有简单唯一的标准答案可供参考。

即使在各学科的顶级精英内部,都很难达成一致。

要让大众理解AI到底能做什么、在做什么、将做什么,也是一件任重道远的是。大多数哲学家、社会科学家和评论家都会“AI威胁论”买单,更何况广大普通群众。“AI取代人类”至今还能登上一些新闻资讯平台的头条,已经足以说明问题。

恶之花到底开在哪里?科学与社会的双重警告

值得一提的是,与其争论“机器”会不会统治人类,不如担心一小部分人利用技术工具进行不合理的操作。

比如前不久美国五角大楼试图向科学界寻求帮助,试图研制新型自主武器。这一举动就遭到了4000多名谷歌员工的联名抗议,甚至不少员工宣布不会继续为谷歌工作。

随后,谷歌也在舆论压力下放弃了五角大楼价值900万美元的合同。

当然,习惯“调戏”社会红线的不只有渴望技术力量的人,还有恐惧它的。

哈佛大学教授泰德·卡辛斯基(Ted Kaczynski)就是一个典型的例子。这位高智商犯罪者用18年的时间,向芝加哥大学、耶鲁大学等院校的理工科教授投递除了16枚炸弹,共炸死3人,炸伤23人。

还给《纽约时报》寄了一枚,要求他们承诺一字不改全文刊登他的论文。最终,FBI和美国司法部同意了这个要求,《纽约时报》和《华盛顿邮报》在1995年9月19日分别刊登了这篇《论工业社会及其未来》。

李飞飞PK赫拉利:长盛不衰的“AI威胁论”到底有何魅力?

这篇论文的观点充满了对技术的哲学思考,比如说:

“每一项新技术单独考虑都是可取的,但汇聚在一起,普通人的命运不再掌握在他自己手中,而是掌握在政客、公司主管、技术人员和官僚手中。”

还有,“假设计算机科学家成功地开发出了智能机器,这些机器无论做什么事都比人类强。在这种情况下,人类可能会轻易地让自己沦落到一个完全依赖机器的位置,沦落到不能做出任何实际选择,只能接受机器的所有决策的地步。”

即使超级智能没有出现,但“机器也将承担越来越多的简单工作,而低能力的工人将越来越过剩,未来留给人类的都是一些不那么重要的工作。以这样的方式结局,对于人类来说也太可怜了”

……

卡辛斯基认为,新技术引入社会会引发一长串变化,其中大部分是不可预测的,因此唯一的解决方法就是放弃科学技术。

听起来是不是和前面的“AI威胁论”有点雷同啊?观点原本无可厚非,展开探讨还能促进社会进步与技术伦理的完善。但卡辛斯基为了践行自己的理念开始“反社会”,动不动给人寄炸药包,这已经不是观点之争了。论文发表后,卡辛斯基被自己的弟弟举报,于1996年被捕,最终被判处终身监禁。

或许,今天即便在众多学者的努力和言传之下,我们依然无法预知并得到一个关于AI的终极答案,但可以肯定的是,随着AI自我监督和黑箱性的破解,它的安全指数正在快速提升。某种程度上,众多“AI威胁论”者持之以恒的批评和质疑起到了“精神安全锁”的作用。

不久之前,Deepmind在博客中透露,准备研发一种“AI保险机制”,一旦发现AI的恶意倾向,就主动终止AI的活动。

当提出问题和解决方案不断以交替往复、互相影响的状态向前奔跑时,也就给AI的潜在危险贴上了一个又一个“绝缘胶布”。

最后,用赫拉利的前辈苏格拉底的一句话来结束这篇文章吧—— “我只知道一件事,那就是什么都不知道。”

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多