分享

“终结者”AI离我们还有多远?

 造就Talk 2020-07-21

机遇只偏爱有准备的头脑,所以,有必要把可能性都探索个遍。

——劳伦斯·克劳斯

我们是否应对人工智能(AI)的潜在风险感到担忧?

最近,我带着这个问题请教了多位AI研究人员,却发现他们的回答大相径庭,几无共识。

而非专业人士更是陷入云里雾里。

问题之一在于,“人工智能”这个词范畴宽泛、模棱两可。它既可以指扫地机器人,又可以指自动驾驶卡车,还可以指电影《终结者》中那种掌握生杀大权的机器人。

概括起来,AI可分为三种:弱AI、强AI,以及超级智能

现在所有的AI都只能算是弱AI。从理论上讲,强AI和超级智能的实现是有可能的,但现在还为时尚早。

要分析AI的风险与裨益,我们有必要理解不同形式AI之间的差别。不同类型的AI牵扯出的潜在风险大不相同,有的无关紧要,有的则非同小可。

以下几个概念界定可帮助我们厘清头绪。

弱AI

狭义人工智能(常被称为弱AI)是一种算法智能,或称专业化智能,几年前就已诞生。

比如完败国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov)的“深蓝”计算机,或是iPhone的Siri,乃至语音识别与处理软件。这些都是应用范围相对狭窄的无意识智能。

将弱AI 也归为人工智能似乎不大合适,因为虽然它可在单项任务上完胜人类,但它所有的能耐也仅限于此。

弱AI没有自我意识,不会自设目标,因此,也不会构成什么末日威胁。但考虑到弱AI控制着保持人类文明存续的至关重要的软件,我们还是非常依赖它。

强AI

通用人工智能(常被称为强AI)是一种通用系统,又被称为“思维机器”。

从理论上讲,通用人工智能在完成任务层面上和人类不相上下,甚至有时还能更胜一筹;它可以自主思索、推理,并以多种多样的方式解决复杂问题。

强AI是否具备“意识”,这个问题仍存争议。

至少,它能展现出通常与意识密不可分的行为——常识推理、对自然语言的理解力、创造力、策略制定和一般智能行动。

通用人工智能尚未诞生,业界普遍认为或许还要20年。与其同时,几乎所有人也都承认,那一天终将到来。

比如由微软联合创始人保罗·艾伦创立的人工智能研究所(Allen Institute for Artificial Intelligence)及世界各地的其他诸多机构,都在逐渐朝这个目标前进。

此类AI势必涉及到更多的复杂问题,然而,反乌托邦式科幻作品中的大反派还轮不到它来当。

强AI的目标就是达到一般的人类智能水平;除非它在短时间内快速展开递归式的自我改进,否则,它不太可能对人类生命构成灾难性的威胁。

强AI的主要问题涉及经济和文化层面,比如:自动化导致的就业流失,经济原因导致的人口迁移,隐私与数据管理,软件安全漏洞等。

超级智能

最后是超级人工智能。

在2014年的一次访谈中,牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)将其定义为“在各个领域都力压人类的任何智能,这些领域包括科学创造力、一般智识与社交技巧。”

人们在担心AI的危险性时,指的就是这一类型的AI(超级人工智能)。

用博斯特罗姆的话来说,一台真正超级智能的机器会“变得极其强大,以至于能按自己的喜好塑造未来。”

到目前为止,完善的超级智能还遥不可期,但在巨大的激励推动下,研究工作正在持续推进。

经济激励是显而易见的:率先推出超级人工智能的公司将坐拥巨额利润。在政治与军事层面,这一技术的应用前景不可限量。

各国都在争做第一,乃至认为这将是赢者通吃的局面。换言之,科技军备竞赛已然打响。

那么问题来了:我们距这种技术的降临还有多远?它将给人类生活带来怎样的影响?

当初为撰写《超级智能》一书,博斯特罗姆曾向该领域内的顶尖专家提问,其中之一是:“你觉得到哪一年,比肩人类的人工智能可达到50%?”

将所有答案取中位数,结果落在2040至2050年之间,这当然只是预测,但给了我们一个大致的概念。

超级智能的诞生时日难以预测,但相对确定的一点是,它总有一天会实现。

如果智能就是关乎信息处理,如果我们持续提升计算系统的处理容量与速度,那么,超级智能的诞生似乎不可避免。

不论要等50年、100年还是300年,我们总会跨过那道门槛。

真到了那一天,这个世界将会发生什么样的变化,我们可能连做梦也想不到

为什么需要担心?

面对各方面都完胜人类的超级智能,我们不能想当然地认为:我们一定驾驭得了。它很可能会提升自我,增强自己的实力。

超级智能机器有可能出现自我意识,产生自己的目的、野心。这种机器怎会乖乖地任人摆布?

如果超级智能开始为自己的目标而奋斗,它有可能产生不符合人类福祉的目标。

超级智能机器的行为将更加难以预料。这样一种存在究竟会想要什么?为什么会产生那样的欲求?它将以何种手段实现这些欲求?我们都不得而知。

以大致确定的是,超级智能会将自己的需求置于人类需求之上。

也许可以这样说:它会对人类需求漠不关心,就好像人类对黑猩猩或短吻鳄的需求漠不关心:人类并非刻意要置黑猩猩和短吻鳄于死地,只是当我们的目标与次等智能生物的福祉产生冲突时,我们恰好造成了这样一种局面。

博斯特罗姆等人怕超级智能,怕的就是这个。

我们必须为这一不可避免的结果做好准备,他最近告诉我说,“出大问题也是完全有可能的,这必须引起我们的重视。”

翻译:雁行

来源:VOX


许田 | 为什么乔布斯临终时叫儿子去学生物技术?

胡慎之 | 为什么那么多人爱看《三生三世十里桃花》?

谢幸 | 我能不能再造一个自己?

马晨骋 | 舞台去哪了?

史航 | 谁能把旧的给创造出来?

伏彩瑞 | 中国教育散不去的霾 

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多