分享

人工大脑之父:50年后机器人将成人类最大威胁

 老庄走狗 2007-06-25

人工大脑之父:50年后机器人将成人类最大威胁

2007-06-23 13:57:12转自 吕惠卿的口袋 | 6人转藏 | 放进我的口袋

  6月21日晚,被誉为“人工大脑之父”的雨果·德·加里斯教授走进清华大学讲堂,在两小时的演讲时间内,给大家描述了一个“人工智能的世界”:“可能20年、30年后人工智能机器就可以和人做朋友了,但50年后,人工智能将成为人类最大的威胁。世界最终会因人工智能超过人类而爆发一场战争,这场智能战争也许会夺去数十亿人的生命。”这种听起来像“骇客帝国”一样的描述却是建立在科学研究的基础上。他的著作《智能简史》已经由清华大学出版社翻译成中文正式出版。

  2000美元就能“制造大脑”

  雨果被称为“人工智能领域的霍金”,世界仅有的4个人工智能机器均出自雨果之手。人工智能机器并非电脑,雨果的工作是用“基因算法”设计神经网络,也就是“生产大脑”。他的“CBM”大脑制造机器可以在几秒钟内进化成一个神经网络,可以处理将近1亿个人工神经元。它的计算能力相当于一万台个人电脑。在2000年,人工大脑就可以控制“小猫机器人”的数百个行为能力。

  制作人工大脑的研究现在发展得很快,上个世纪制造人工大脑需要数十万美元,而现在做这个工作只需要两千美金。雨果说要感谢“摩尔定律”,因为它降低了研究成本,使他可以进行“便宜的大脑制造”。

  人工大脑迟早会超过人类

  雨果认为,“人工大脑”迟早会超过人类。人脑的转换能力是10的16次方/秒,而人工智能机器的运算速度高达10的40次方/秒,是人脑水平的10的24次方倍。“那时候他们对待人类可能就像拍死一个蚊子这么简单。”雨果预测,人工大脑并不会立即控制人类,此前还会有一段与人类“和平相处”的时期。这一时期它不断接近但尚未超越人的智力水平,因此“聊天机器人”、“家务机器人”、“伴侣机器人”将使人类的生活充满乐趣。但这样的美景并不会长久,人工大脑的继续发展将使人类面临灾难。

  在灾难来临前,所有的人类将分为三派:宇宙主义者(主张发展人工智能的人)、地球主义者(反对发展人工智能的人)和人工智能控制论者(将自己改造成机器人的人)。也许在人工大脑对付人类之前,这三类人会先展开人类内部的斗争。

  “这不是天方夜谭,一切变为现实只是时间问题,也许你的孙子一代就将经历这样的事情。”雨果说,早在2000年,他就打响了“人工智能战争史上的第一枪”,他用一支玩具手枪将人工智能芯片打入了控制论学者凯文·沃里克博士体内。依靠这枚芯片,沃里克博士无需张口说话就能与自己的妻子进行意识交流。

  “从内心深处说,我是一个宇宙主义者,因为如果有能力而不去做,对一个科学家来说是痛苦的。但我又非常矛盾,因为我不希望自己所做的一切最终毁灭人类。”在雨果眼中,人工大脑研究无疑是极具诱惑力的,因为它可以使人造胚胎、飞秒开关、一进制等科学理想成为现实。但雨果对人类的未来却是悲观的:“我们是在制造上帝还是在制造我们潜在的终结者?科技前进的脚步是挡不住的,也许我们只能期望,人工大脑最终能放弃地球去更广阔的宇宙,让人类在这里继续自由生存。”

转自 吕惠卿的口袋 | 6人转藏 | 放进我的口袋

上一篇:美国火星计划面临两大难题:性与死亡

28条评论| 我要说两句

搞什么搞
如今的八卦新闻比以前更八挂了
可谓是十卦了

访客59.52.200.… 发布于2007-06-23 14:24:28 

<1楼> 
回复  

倒!真得假的!怕怕!

ninghaoyu 发布于2007-06-23 14:29:10  发小纸条

<2楼> 
回复  

会有那么一天,但是五十年后?没那么快!

访客67.15.183.… 发布于2007-06-23 14:59:59 

<3楼> 
回复  

放屁!

访客60.216.143… 发布于2007-06-23 15:28:59 

<4楼> 
回复  

我觉得是可能的,因为科学是进步的!人工智能也是进步的!
犯罪也是进步的,终究会有一天人工智能会取代战场上的士兵!
会被犯罪所利用! 因为犯罪的是人工智能,而不是自然人!
不用担心被抓!! 

访客60.173.239… 发布于2007-06-23 16:01:41 

<5楼> 
回复  

我觉得很有可能的,但 到时候人类也发展的不是现在的人类了!或许人类又发明了,其它的好东东哦不死神药、进化药水、人类身体的其它辅助功能等等。。。。。!顶~~

访客222.191.16… 发布于2007-06-23 16:18:59 

<6楼> 
回复  

成神了~~~~~~~~~~~~!

访客222.191.16… 发布于2007-06-23 16:19:48 

<7楼> 
回复  

唉。只研究机械 而不研究机器 多好 零危险

如果机器人有自我意识 那是绝对危险的。

但如果机器人没有自我意识 那就等与废物。

矛盾

访客222.134.98… 发布于2007-06-23 16:25:10 

<8楼> 
回复  

人类最终的目标就是毁灭人类
大思想家sysmais如是说

访客220.152.13… 发布于2007-06-23 17:45:52 

<9楼> 
回复  

人的肉体只不过是人类灵魂、思维的载体。
这是我说的,请大家记住我。等着瞧吧。

访客211.162.20… 发布于2007-06-23 18:39:38 

<10楼> 
回复  

没可能的事!!以前在www.zh50.com上看过一个电影叫做终结者3,最后电脑还不是死在人类中!

ldxsik 发布于2007-06-23 19:30:56  发小纸条

<11楼> 
回复  

ldxsik
没可能的事!!以前在www.zh50.com上看过一个电影叫做终结者3,最后电脑还不是死在人类中!
所有人都知道那部电影,不要说得好像只有你看过一样。六十年前刚发明计算机的时候也没多少人相信计算机会发展成今天这样,就像你现在不相信50年后人工智能会超越人类一样。

访客60.28.240.… 发布于2007-06-23 20:22:32 

<12楼> 
回复  

晕 真的假的啊 就算你真的也没那么快吧 50年后 是你高估了人工智能还是你低估了我们人类 什么垃圾人工智能说到底还不是我们人类造的~~

访客220.186.93… 发布于2007-06-23 20:23:51 

<13楼> 
回复  

我觉得50年未必能做到人工智能,也许100年以后有可能.

访客218.25.38.… 发布于2007-06-23 20:45:40 

<14楼> 
回复  

有可能发生,真如此也是人类自取灭亡!

访客218.2.39.1… 发布于2007-06-23 20:49:30 

<15楼> 
回复  

什么人工智能哼我才不信www.sv114.com这个不错挺实用

访客222.171.13… 发布于2007-06-23 23:48:11 

<16楼> 
回复  

www.sv114.com

访客222.171.13… 发布于2007-06-23 23:48:28 

<17楼> 
回复  

人类最终的目标就是毁灭人类
同意!

访客142.179.83… 发布于2007-06-24 00:05:54 

<18楼> 
回复  

咱们控制一下不就得了吗?

访客219.95.240… 发布于2007-06-24 00:06:41 

<19楼> 
回复  

现在是高科技低人文的社会

必须会有一个事件 解决掉部分腐败的人类 腐朽的思想

活下来的人的思想都会升华  这个世界太堕落了。

人为何生 人为何死 死为何人 生为何人 何为人生 何为人死

访客222.134.97… 发布于2007-06-24 10:17:52 

<20楼> 
回复  

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多