作者:桡哲 来源/无用学派 前言: 请不要只是站在单独国家,单独群体的尺度去衡量一切。 人类是否长存,得站在整个人类的基础之上去衡量
大家都知道人类正处于飞速发展、快速进步的这样一个现存人类激进文明的氛围中 但试问多少人反思过当下我们整体人类所做的一切是否是真正有利于自己、有利于整个人类物类的生存。 或许一千万人中可能只有一个去想过,而大部分人都在为生存、权、金钱、无知等而盲目的活在一切的表层生活中。 并且我想,
这就是以进步论、现存激进文明意识洪流、弱肉强食为主要意识形态的当前人类的现今状态! 在进入正文之前,说一个非正式话题 大家知道如果从宇宙的最原始的奇点存在态体系开始讲: 超大尺度来看整个物质史
而人类现在就处在金字塔的顶尖,也就是最动荡的一个物类。 按照这个大尺度来谈人类 最初人类诞生到现在不过几十万、几百万年,智人不过几万年,人类开化不过一万年左右,农业文明几千年,而工商业文明不过短短几百年,也越是前沿的文明,时间就越是短暂,从整个物类大尺度的衡量来看,整个自然是存在一个大尺度自然规律,而按照整个自然律的结果来讲 人类将于不久玩完! 或许是外部环境造成的灭绝,也可能是人类现存文明的越来越暴烈造成在外部环境造成灭绝之前更早的灭绝。 而至于为什么有此推断,我们从人工智能开始说。 我们首先来说人工智能 人工智能无疑是现代社会最热点的话题,无论是无人驾驶、大数据分析、还是智能机器人等都受到人们的强烈吹捧,世界各国纷纷投入大量各类资源、资金深度研究人工智能。 甚至预言接下来一定是人工智能时代 世界各国都在蒙头猛冲在人工智能的急湍洪流中,唯恐在人工智能时代落后一步。这就是现在人工智能飞速发展的人类状态,就完全类似当年信奉上帝、信奉鬼神一样。 谷歌技术总监库兹∙韦尔写过一本书叫《奇点临近》,预测人类的人工智能技术会有: 弱人工智能、强人工智能、超人工智能三个阶段
库兹韦尔说人工智能技术的增长是呈指数级增长 所以他预测人类从弱人工智能达到强人工智能,将会在2045年至2065年间达成,离我们现在还剩多少年?不过二三十年! 按照指数级生长形式,强人工智能一旦达成,也就是说机器一旦达成跟人的智能效率一样高的时候,它将只需要三个半小时的时间就立即进入强人工智能,速度非常之快! 学过数学的都知道指数曲线;
到时候别说人类今天智力只开发不到10%,机器人的智能一旦突破那个奇点,不仅同比于人类所有智能潜能会100%开发 甚至还会指数倍超过人类总体智能潜能 从此人工智能将一发不可收拾,而且超人类的更多未知潜在智能将在短时间爆发! 说到这里,可能很多人就已经开始幻想,到了那个时候:
而事实是人工智能也是这样一个强大的存在 以上所述的美好生活都能全部实现! 机器人可以自己高速缔造更高智能的机器人,而且速度极快,根本就不需要像什么普通地球原始生物那样一代一代的进化,什么基因突变、什么优胜劣汰、什么环境选择,这些统统都将不需要 人工智能将按照最优进化方式呈指数型发生巨大的改革进化 将会在非常短的时间内把人类跟机器的智能差距拉开十几个乃至几十上百上千上万个台阶!
然而超人工智能将在数小时内的时间做到!甚至进化的速度,繁殖升级的速度都会加快,到时的人工智能就几乎可以称之为我们眼中的“神”,我们人类觉得根本做不到的事情,对于未来的人工智能简直就不用吹灰之力就能解决! 我们看现存人类的幼年阶段是什么样的一种状态
但,人工智能则不是!
别说你是伟大的人类,你觉得你拥有着人类独有的想象力、模仿力、思考力、学习力以及对未知事物的革新有着人类独有的一种思维方式或者说是能力 机器人就算是再聪明也赶不上你 但是你要知道无论你把自己任意一个方面的能力描述的何其极致,你总归是从单细胞进化而来,你从单细胞生物到多细胞生物,再到鱼类、爬行动物,再到人类,你的基因或者所说的能力是千百万年进化而来,是通过几十几百年进化不断(底层)建模所获得的人类知识 另外则是来自于独特的头部构造,这些总归是基于某种类似于算法一样的古今人类经过上百万年所积攒起来潜移默化呈现在你面前所谓伟大的思想思维之下 所以千万你不要因为你目前拥有任何的一种觉得你高于任何一种生物的某项能力而感到自豪 因为你根本不知道人工智能到最后将是何种景象!你要知道创造他的人是这个人类社会最顶层的佼佼者,你所知道或者不知道的都将涌现在人工智能身上! 这叫超人工智能。
对于强人工智能、超人工智能对人类的威胁,西方分为两派
可是大家要知道不管是的乐观派还是悲观派,他们都是胡乱猜测,没有任何的根据,仅是凭借表面的现象来进行判断,你想,他凭什么乐观?又凭什么悲观?那对于我们怎样去评价它将是悲观还是乐观?我们有一个什么样的底层逻辑或者是理论去判断它乐观还是悲观? 如果我们要去预测就必须要有一个基础理论作为终极尺度来进行衡量,而一旦有了基础理论,这才有根有据。 而据递弱代偿原理这把度量尺,可以断定它必然是悲观结局,也就是人工智能一定对人类的存在构成巨大威胁,并且是灭绝人类般的超大规模威胁! 据递弱代偿的原理来判断:
很多人写文章非常生动的给我讲这种威胁怎样实现,我引用它的故事
大家想想这个危机,如果库兹韦尔预测的准,我们将在几十年以后面对一个我们根本无法处理得天敌,比我们拿着火炮猎枪打猪还有更简单,想想那个危局是个什么局面? 再从另一个方面来讲
并且你不要试图去说服自己或者安慰自己去相信人工智能就如同是自己的一个宠物、一个奴隶、一个下人
对你的造物者,你今天把他归为的是低级物种,你还自诩为高级物种,甚至都不愿意称自己是动物,称自己是什么高级物种。 由此你可以想超人工智能是个什么样? 它一定比今天的人类更暴烈,更残暴!这个人工智能最终结果绝对不是你所期待的样子,只是你最害怕的样子! 在看了对人工智能的各项进步推演预测的结论之后,肯定有很多人会说:
你错了 你要知道的是走到这一步是自然的必然规律! 人类当前根本不可能停止一切正在进行的步伐,一切只会越来越发展更快,没有人有能力去阻挡! 并且按照当前的发展,如果没有另一种新的文化通道产生,其实结果又有什么好预测的?是与不是又能怎样? 似乎走到这里就进入了一个死胡同,没有任何讨论的意义,然而这并不是终点,这将是一个起点,走到现在这个地步 人类根本没有后退的余地,也是根本不可能后退的 重点是在现代人类文明逐渐将人类带向灭亡的时候,意味着人类需要构建一个新的人类文明,而这个新的人类文明或许就能化解这场危机! 如果一味的排异,而不是去认真反思这一切发生的渊源,人类只会被现有知识所遮蔽进而走向灭亡,唯有广纳任何一切的有紧密逻辑证明的思想,人类才能生存更长一些 以上为第一部分。 |
|