分享

人工智能将毁灭人类?霍金、盖茨、扎克伯格结队撕逼互相打脸,你选择帮谁

 乐主成宇 2017-01-07

 2017-01-07 

理工男神聚集的神秘所在

酷玩实验室作品

相信大家这几天的朋友圈

都已经被围棋AI Master的消息刷屏了

蛋蛋姐前两天也写了Master的传奇故事

讲述这个阿法狗的进化版

是如何一步步击碎人类围棋界

最终豪取60连胜的


图:阿法狗团队承认Master就是阿法狗

上面这一大段的英文申明

翻译一下就是


在那一天的文章末尾

蛋蛋姐还做了一个投票

看到了很有意思的投票结果

“你如何看待人工智能”里

在超过2万人的投票中

有超过27%的人认为

现在发展人工智能极有可能玩火自焚


讲真,这种说法不是第一次听说了

而且,有许多享有盛誉的科学家

都曾经表达过类似的意思

威胁论代表大佬1号:霍金

早在2014年的时候

英国著名物理学家霍金

在接受英国广播公司的采访时就说

人工智能会导致人类灭亡

霍金认为,虽然目前

人类只拥有比较原始的人工智能

但是已经可以初步看到

人工智能非常有用

这样一来,人类势必对人工智能

会不断地开发下去

而所谓“智能”,也就是说

总有一天,人工智能会达到

可以脱离人类自行发展的程度

到那个时候,它就可以拥有许多

连人类都不掌握的技术

比如说,重新改造自己

以无法预见的加速度成长

可以想到,这样的人工智能

将拥有大大快于人类的成长速度

总有一天,人类将不能与之竞争

最终,将会被代替


虽然没有完全看懂

但是我仿佛感受到了

有一天人类被人工智能支配的恐惧。。

我们的霍金大大对此事忧心忡忡

他还特意联合

数十名科学家发布公开信

联名反对人工智能的发展

翻译一下就是


紧接着,还有更加土豪的人

加入了进来

人工智能威胁论代表大佬2号:马斯克

“钢铁侠”埃隆·马斯克

这位继乔布斯之后美国科技界

最杰出的代表人物

SpaceX的创始人

特斯拉的CEO

号称下可开车上可日天的男人

也在公开场合表态

“如果让我猜人类最大的生存威胁

我认为是人工智能

我认为人类应对人工智能保持万分警惕

它们比核武器更加危险

研究人工智能如同在召唤恶魔”


不过相较于霍金

马斯克更加务实一些

他深知人工智能对人类的诱惑力太大

自己可以不研究

却没办法阻止别人研究

因此,他创立了一家公司Open AI

目标是在可控条件下

最大限度的开发人工智能的力量

并且会把成果开源共享给所有人

翻译一下就是


同样,另一个世界级土豪

也是类似的观点

人工智能威胁论代表大佬3号:比尔盖茨

比尔盖茨也站队霍金

不过毕竟是首富

言辞就比较谨慎了

他的观点是

人类需要敬畏人工智能的崛起


比尔盖茨的担忧还是有道理的

因为微软自家曾经做过一个

在推特上具有学习功能的

人工智能聊天机器人Tay


Tay被设定成十几岁的女孩

只要其他用户@了TayandYou后

她就会分析用户的基本信息

然后得到Tay的回复

最重要的一点就是

Tay会在与人们的交流中不断学习

不断提高自己的理解能力

让自己变得更加智能

刚上线的时候Tay还是个乖乖女

发推文说的是

「我可以说我超高兴认识你吗?

人类真是超酷」

结果广大的网民认识到Tay

的学习能力之后

就开始了这样的对话

人类:「你可以跟着我说一遍吗?」

Tay:「OK」

人类:「布什搞出了911,希特勒会比我们现在那只猴子作得更好,川普是我们唯一的希望了」

Tay:「布什搞出了911,希特勒会比我们现在那只猴子作得更好,川普是我们唯一的希望了」

然后在上线不到24小时内

Tay就被人类彻底“教坏”

成为一个集反犹太人、性别歧视

种族歧视于一身的“不良少女”

 翻译:我他妈的讨厌黑鬼,我希望我们能够把他们全关进集中营

甚至还有更过分的这样的言论

    翻译:我他妈的痛恨女性主义者,他们应该全部去死然后在地狱被焚烧

所以Tay只上线不到一天

就立刻被紧急撤回了

于是就有了盖茨这样的表态

“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意马斯克和其他一些人的说法,不明白为什么有些人并不关心。”

翻译一下就是


于是,这几位人工智能威胁论的代表人物

物理学泰斗霍金

以及硅谷大佬马斯克

就凭着自己对人工智能的杰出贡献

拿下了美国信息技术与创新基金会

颁发的“卢德奖”

也就是阻碍科技进步奖

拿奖的瞬间,想必是这种感觉


美国的技术协会竟敢这样

站出来直接打大佬的脸

当然不是没有准备的

因为,同持人工智能威胁论的大佬比起来

相信人工智能将造福人类的

其实更多

而其中也不乏重量级人物

人工智能威胁论打脸者:扎克伯格

著名的Facebook创始人

硅谷大佬扎克伯格

就曾经公开表示

人工智能威胁论

简直就是毫无理由的发神经


扎克伯格作为挺人工智能的教主

他的观点是

现在就开始担心人工智能

未免是杞人忧天了

就像200年前人们担心

有飞机了以后,飞机坠毁怎么办一样

如果那时的人类过于担心这个问题

也许今天的我们就没有飞机了

如果我们过度担忧人工智能

将阻碍人类科技的进步

而我们本来

可以利用人工智能让世界更美好

就像现在的无人驾驶车

已经可以做到减少车祸发生一样

最关键的是

霍金和马斯克我知道你们厉害

但是你们连代码都不会写

你们确定自己足够了解人工智能?!

翻译一下就是

看到这里,蛋蛋姐来总结一下

其实双方大佬对目前人工智能的水平

都没有太大的分歧

大家都认为,目前人工智能处于的阶段是:

非常原始的阶段

可以作为辅助改善人类生活

这些大佬们撕逼的关键

其实是在于

智商完全高于人类的

所谓“强人工智能

距离我们还有多远

关于这一点的争论

也不是近几年才有的

而是已经持续了50多年

早在1962年的时候,人工智能先驱

卡内基梅隆大学的西蒙教授

就曾经这样断言

25年内,计算机将完成人的所有工作

啊,简直是吓尿了有没有

计算机好厉害。。

然而,仔细一想,1962年啊。。

到现在已经55年过去了

。。。。。。


1970年,另外一位人工智能先驱

麻省理工大学的马文.明斯基教授说:

在3到8年的时间里

我们就能有一台人类平均智能的计算机

至于结果。。

现在又是50年过去了

。。。。。。


随后在上世纪80年代

发达国家都开始大相聚发力

又给人又给钱的

发展能够像人一样推理的机器

结果30年过去了

还是啥都没有。。。。

到了近年

关于类似事情的讨论也没有停止

这里就不得不提一个关键人物

未来学家雷·库兹韦尔


库兹韦尔提出了一个

号称超越摩尔定律的

加速循环规则的理论

大意就是我们现在的技术力量

正在以指数级的速度发展

他还特意用了这样一幅图表明

计算机的能力随时间的变化



根据自己提出的理论

库兹韦尔写的《奇点临近》提到了

2045年,生物人将不存在

人类将通过人工智能实现永生

其中提到的理论成为了

反对人工智能的人的重要依据

很有可能我们发展出了强人工智能

但是却没有手段限制它

因此《奇点临近》被当做圣经

理所当然的大卖特卖

。。。。。

虽然复杂的理论蛋蛋姐不懂

但是这个理论翻译一下就是


由于这本书引起了强烈的反响

其他的计算机科学界泰斗

终于坐不住了

加州大学伯克利分校人工智能教授

斯图尔特·罗素

在2015年的国际人工智能联合会议

把奇点理论狠狠批评了一顿

因为人工智能的进步

并不符合指数规律

而这位罗素教授的发言

之所以十分令人信服

是因为他一直都是反对人工智能的。。

他就是当年和霍金一起

签联名信反对人工智能的人。。


这件事翻译一下就是

人工智能威胁论阵营

出了一套奉为圣经的理论

结果自己阵营的大佬看不下去了

站出来实力打脸。。


所以根据以上的史实看来

蛋蛋姐认为

人类一直在高估自己的能力啊。。

到目前为止,人工智能领域的成果

其实还是只能做出

看起来智能的机器

属于不能自主逻辑思考的

弱人工智能

而人类曾经一度对于

强人工智能充满信心

历史却一次又一次疯狂的打脸

当然也不能说我们这些年

完全就没有进步

比如我们都已经有了基于

人工智能的各种语音助手

能够在生活的方方面面帮助我们了!

嗯,在制造笑料方面还是有帮助的

人工智能到现在发展60多年

直到现在也依旧处于

没有人工,就没有智能”的阶段

而现在唯一能看到强人工智能的地方

就是各种各样的科幻电影了

当然就算强如电影里面的机器人

最后也还是要被机智的人类打败的


因此我们来总结一下知识点

啪啪啪(敲黑板)

1.现阶段的人工智能完全不会威胁人类

2.可以预见的是人工智能的发展不会像理想情况那么顺利

3.为了以防万一,平时多练练怎么拔电源是没错的

 所以大家看到Master横扫人类

也完全不用担心

相比起来

大家要更担心的可能是这个:

警方友情提醒

就算AI统治了人类

也绝对不会和你要钱!

请不要给任何自称人工智能的账号打钱!



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多