分享

基于历史视角分析的强人工智能论争

 昵称14979747 2019-07-15
2019年07月12日 10:39 来源:《山东科技大学学报.社会科学版》 作者:王彦雨


  维纳对此表示深切忧虑,他于1960年发表《自动化的某些道德和技术的后果》(Some Moral and Technical Consequences of Automation)一文,认为智能机器迟早超过并危害人类。其理由是:(1)机器可能会跳出此前的训练模式,摆脱设计者的控制,“它们无疑是有创造力的……不仅表现在下棋程序所具有的不可预见的战术上,同时还表现在战略评估的详细加权上”;[7](2)下棋游戏可以将其能力延伸到其他领域(如核领域),实现智能的跨领域迁移并带来未知风险,“这些具有学习能力的机器可以用于编码新型按钮战争中的按钮动作……一个拥有足够的经验可进行适当编程的机器,可能使人类早已经被消灭了”;[8](3)人类行动缓慢,难以做出及时有效的回应。但塞缪尔并不认同维纳的观点,他认为机器不具备独立思想,下棋程序所谓的“意图”或“结论”,只不过是程序设计者本人意图的反映。塞缪尔专门在《科学》杂志撰文“自动化的某些道德和技术的后果——一种反驳”(Some Moral and Technical Consequences of Automation——A Refutation),强调“维纳的一些结论我并不认同,他似乎认为机器能够拥有原创性,是人类的一个威胁”,但“机器不是妖魔,它不是用魔术操作,也没有意志,而且与维纳的说法相反,除了少见的功能失常情况外,它不能输出任何未经输入的东西”[9]。
  二、强AI乐观主义与悲观主义之争(第一个人工智能黄金时代,1956—1974)Research on Strong Artificial Intelligence Debate form the Historical Perspective

  作者简介:王彦雨(1982- ),男,山东巨野人,中国科学院自然科学史研究所副研究员,科学技术哲学博士。北京 100190

  原发信息:《山东科技大学学报.社会科学版》第20186期

  内容提要:在人工智能发展史上,强人工智能(“强AI”)一直是一个争议不断但却又不断引发人们关注的议题。对于“强AI”理念,我们应合理看待其所发的各种争论:(1)“强AI”理念是推动人工智能界不断打破人机界限、使AI技术向前发展的重要信念;(2)“强AI”争论背后所反映的是不同社会要素,特别是“两种文化”(科学文化和人文文化)之间的张力,且AI界的这几种文化也经历着由对立、冲突,到逐渐的尝试性对话与合作这一过程。(3)AI界、哲学界在对待“强AI”这一议题的态度并非一成不变,AI界经历了一个由乐观与支持到悲观与放弃以及现在的谨慎心态,而哲学界对于“强AI”的态度则是沿着由批判与质疑到现在的大力宣扬这一路径演变,且当前他们对强AI所可能引发的风险更为忧虑。(4)“强AI”概念需要进行重新界定,使其成为科学而非单纯的“科幻式”概念,并给予强AI风险议题更多关注。

  Throughout the history of artificial intelligence(AI),"strong AI" has always been a controversial concept which constantly arouses people's concern For the idea of "strong AI",we are expected to take a reasonable view of the various arguments it has caused:(1)The idea of "strong AI" is an important force to drive AI technology to break the boundary between humans and machines and develop forward;(2)The controversy of "strong AI" reflects the tension between different social factors,including the "two cultures"(scientific culture and humanistic culture),the mainstream world outlook,i.e.science and technology are the competitiveness and productivity and so on Besides,these cultures in AI circle go through a process from opposition to conflict,and finally to tentative dialogue and cooperation(3)The attitude of AI circle and philosophical circle towards "strong AI" is changing:AI circle was initially optimistic and supportive,and then pessimistic and ignoring,and is now finally cautious; philosophical circle towards "strong AI" was critical and suspicious,and now advocates vigorously,moreover,it is more concerned about the risk that strong AI may cause.(4)The concept of "strong AI" needs to be redefined to make it a scientific concept rather than a simple one of "science fiction".Besides,more attention should be paid to the "strong AI" risk.

  关键词:强AI/“机器智能恶与善”之争/乐观主义与悲观主义之争/“智能增强”理念/“奇点”理论/“强AI风险论”/科技巨风险  strong AI/debate on "the evil and the good of machine intelligence"/debate between optimism and pessimism/concept of "intelligence augmentation"/"singularity" theory/"theory of strong AI risk"/huge risk of science and technology

  标题注释:中国科学院自然科学史研究所重点培育方向项目“科技的社会风险”;中国科学院青年研教项目“机器人ELSI问题研究”项目。

  强人工智能(“强AI”)概念由哲学家塞尔(John Searle)于20世纪80年代所提出,[1]类似的概念还包括高端“通用人工智能”(Artificial General Intelligence)、波斯特罗姆(Nick Bostrom)的“超级智能”(Super intelligence)、弗诺·文奇(Vernor Steffen Vinge)的“奇点”(singularity)等,其对应的概念是“弱AI”(weak AI)或应用性AI、专用AI。“弱AI”不具有真正的智能或自主意识,只能解决特定领域中的问题;而“强AI”则是指达到人脑水平的机器智能,可以全面、综合地复现人类大多数(或全部)的思维能力,甚至具有诸如自主意识、算计、情感反应等价值或情感要素。如塞尔将“强AI”界定为“一个机器可以展示出或模拟人类水平的聪明程度,或超出人类的聪明程度”,波斯特罗姆强调“超级智能”“几乎在所有领域均能够远远超过人类的认知能力”。强AI是否能实现、是否与人为善,对于这一问题,学者们给出了不同看法。一些学者,如埃隆·马斯克(Elon Musk)、史蒂芬·霍金(Stephen Hawking)等认为强AI最终会实现且会与人为恶,刘益东则指出强AI具有双重危险,属于“致毁知识”,因为其正负效应不可抵消,无论它有多大的正面效应,也是“一坏遮百好”,所以应该明令禁止。[2]蔡恒进也认为,“作为人类意识延伸的人工智能,被赋予的是偏狭而非完整的意识,在快速进化之后会导致其能力与意识状态的极度不匹配”;[3]一些学者认为强AI的实现虽然不可避免,但它是有益于人类的,如赫伯特·西蒙(Hebert Simon)、库兹韦尔(Ray Kurzweil)等;也有人将强AI视为是一种不可能实现的幻想,如严乐春(Yann LeCun)、谭铁牛等。

  关于“AI能否达到人类的思维水平、是否会取代甚至控制人类”这一问题(我们称之为“强AI议题”),自“人工智能”这一学科产生之日起便引发广泛关注,相关分析散见于人工智能史研究中,如丹尼尔·克勒维耶(Daniel Crevier)在1993年的著作《AI:人工智能研究的动荡史》中,描述了人工智能发展初期乐观派和悲观派之间的争论、对立过程;约翰·马尔科夫(John Markoff)在《与机器人共舞:人工智能时代的大未来》一书中,对人工智能研究共同体中“强AI派”与“智能增强派”之间的紧张关系进行了阐释,等。但是这些研究较为分散,没有能够结合各个时期争论的不同主题,对“强AI”的整个争论史进行系统的论述,实际上,在人工智能发展的不同阶段,人们对“强AI议题”的关注点及讨论视角一直在发生着变化(见图1)。本文主要探讨的问题是,(1)在人工智能发展的不同时期,AI共同体内部不同群体以及哲学社会科学界对“强AI”分别持何种态度?(2)不同争论群体在“强AI”这一议题上是否以及如何对话与互动;(3)“强AI议题”对人工智能的发展有何作用,特别是如何影响通用人工智能与专用人工智能两种研究路径的演进。

  

  图1 不同时期人们关于强人工智能的争论议题及关注点变化

  一、图灵的担忧及诺伯特·维纳与塞缪尔关于“机器智能恶与善”问题之争(1950—1956)

  1950年,图灵发表著名论文《计算机器与智能》(Computing Machinery and Intelligence),首次提出“机器是否可以思考”这一问题。[4]442图灵认为,机器可以像人脑一样思维,他强调“模仿”概念,即机器可以模仿人脑从而实现人脑的某些功能。图灵将人脑比拟为一台数字计算机,由存储器、执行单元和控制器所构成,通过“编程”将目标函数输入机器,从而实现特定目标,“分析机实际上是一台万能数字计算机,当它的存储能力和速度达到一种程度,人类就可能通过适当的程序使它模仿我们讨论的机器”[4]433-460。机器“思考”的限度是什么?或是说图灵眼中的机器是否具有强AI属性?他认为,“机器可以成为它自己的主题,机器可以通过观察自己的行为的结果,修改自己的程序,以便有效地达到某种目的”,图灵眼中的机器智能不具有诸如道德、伦理、主体感受、意向性等精神或意识要素,它是逻辑的、计算的、线性的,但图灵认为未来的机器智能将具有学习、进化、改进自我等功能,这种属性是强AI的重要特征之一。

  图灵的理论促使人们去研究如何使机器模仿人类思维方式,如“游戏AI”、定理证明等。1951年,斯特雷奇(Christopher Strachey)编写出一个跳棋程序,而普林茨(Dietrich Prinz)则发展出国际象棋程序;1955年,纽厄尔(Allen Newell)和西蒙(Herbert A.Simon)开发的“逻辑理论家”(Logic Theorist)证明了《数学原理》(Principia Mathematica)中38个定理,且发现了一些新的、更好的证明方式,[5]123-125西蒙认为这一程序“解决了古老的精神/身体问题,解释了一个由物质构成的系统如何拥有思想特质”[6]17。

  游戏AI战胜人类棋手事件,引发了一些学者对“机器是否会控制人类”的担忧,其中之一便是维纳(Norbert Wiener)。实际上,维纳在其1950年的《人有人的用处:控制论与社会》(The Human Use of Human Being)一书中,便基于熵、反馈控制理论,对有机体与机器之间的相似性进行了论证,认为生命体甚至其思维都可以最终被机械化。维纳的担忧很快变成现实。1952年,塞缪尔(Arthur Samuel)构建了一个被认为是能够学习的跳棋程序,1956年2月24日这一跳棋程序打败了康涅狄格州的西洋跳棋冠军,而1959年,塞缪尔在与自己所设计的跳棋游戏AI的对弈中被击败。

  1956年,达特茅斯会议(Dartmouth Conference)召开,人工智能研究逐渐建制化,且发展速度“令人惊奇”。[6]1820世纪50、60年代,MIT(1959)、斯坦福大学(1963)、卡内基梅隆大学等均建立了人工智能实验室。

  在人工智能发展的第一个黄金期(1956—1974年左右),人工智能界对“AI达到或超过人类智能”这一问题持乐观态度。如,1957年赫伯特·西蒙在一篇论述中写道:“我可以作出的最简单的结论是,当前世界上拥有可以思考、学习、创造的机器。而且,它们能力的增长非常迅速,在可见的未来,它们解决问题的能力将与人类思维共延”;[10]1970年,明斯基(Marvin Minsky)在《生活》(Life)杂志谈到,“在三到八年的时间内,我们可以拥有其智能等同于普通人的机器”[5]272-274。在乐观主义者看来,人脑的一切活动(如推理、情感、决策等)均可以形式化为符号、还原成一系列的数字或代码,并通过逻辑程序的创建来复现人类大脑的所有思维活动。计算机科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)在《哥德尔、埃舍尔和巴赫:不朽的金发辫》(1979)一书中便强调一切实在性都能转变为形式系统,虽然神经活动与纯粹的数学有着巨大的差异性,但是诸如美、意义、感觉、情感依然存在着进行形式化表示的可能,“没有什么理由使人相信,一台计算中运转得完美无缺的硬件不可能支持那引起体现诸如混乱、遗忘以及美感这类复杂事件的高层符号行为”[11]。

  这一时期,哲学界开始登场,他们是作为强AI反对派而出现的,如鲁卡斯(John Lucas)、德雷福斯(H.Dreyfus)等,他们反对AI乐观派所认为的“所有人类活动均可以符号化、形式化”观点。如鲁卡斯在1961年的《心灵、机器和哥德尔》(Minds,Machines and Godel)一书中,强调人类心灵无法进行形式化还原,机器由各个独立的部分构成,它不具有整体的、非机械性累加的特质,“一个机器可以被设计成它可以表面上‘谈’及它‘意识’到自己的行动,但是如果它不变成不同的机器,它便无法真正拥有这种‘考虑’……一个有意识的思想可以反思自身,并且批评自己的表现,且这种活动不需要增加额外的部分:它已经是一个完整的、因此不存在阿喀琉斯之踵的物体”[12]。

  德雷福斯则利用现象学对人工智能乐观派进行攻击。1972年,德雷福斯在其出版的《什么是计算机不能够做的:人工智能的极限》(What Computers Can't Do:the Limits of Artificial Intelligence)中强调:并不是所有的问题都可以进行形式化,经验、直觉、意义等均无法通过形式规则来加以描述;且,意义、情感等是在生活实践中产生的,大脑功能并非完全由其生理机能所决定,孤立地模拟大脑机制而不把它放到与外界相联系的环境之中,是无法产生思想的,“如果人工智能研究者的理性概念是对事实的演算,如果当他确认哪些事实相关而且有意义时,不是根据事先的给定,而是由上下文环境来决定的,那么他要造出智能行为的企图就会引起论证上的矛盾”;[13]另外,用计算机通过算法来解决的问题,其复杂度必须在一定范围之内,而现实世界中的问题往往出现复杂性指数爆炸现象。

  对于德雷福斯的批评,人工智能界进行了激烈的攻击,如西蒙在《思维机器》(Thinking Machines)一书中将德雷福斯的论点斥之为“废物”,明斯基认为德雷福斯“不理解‘人工智能’,因此也无需理会”。[14]143当然,AI界对于德福雷斯也并非完全是批判态度,一些学者基于伦理维度来谨慎反思人工智能所可能引发的社会问题,如ELIZA的发明者魏泽鲍姆便认为AI研究者对德福雷斯的完全漠视是不专业、且幼稚的。1976年,魏泽鲍姆出版了《计算机能力与人类理性》(Computer Power and Human Reason),强调对人工智能的滥用会降低人类的生活价值,“最终必须在人的智能和机器智能之间划出一条界限。……人把自主权交给了一个机器世界;这种普遍的意义可是值得深入考虑了。”[15]

  虽然遭到哲学社会科学界的批评,但是在这一时期,“强AI”成为AI界的主导性理念,并向政府界的资助者做出了许多“浮夸性承诺”,并得到政府的大力支持。如19世纪60年代中期,麦卡锡曾告诉美国国防高级研究计划局(当时称ARPA):在未来10年里,他们就可以打造出“全智能机器”,“我们最终的目标是创造能够像人类一样高效地从经验中学习的程序”[16]114。基于冷战需求,加之AI界的鼓吹,政府部门特别是美国国防高级研究计划局将大量的资金注入这一领域,如1963年该机构投入200万美元资助MIT“AI智能小组”的MAC项目(the Project on Mathematics and Computation),直到1970年代,美国国防高级研究计划局每年都会向MIT投入300万美元用于人工智能研究;[14]64-65另外,美国国防高级研究计划局也资助西蒙在卡耐基梅隆大学以及麦卡锡在斯坦福大学的人工智能项目等。在“强AI”理念的推动下,人工智能在各个领域如数学及几何解题、机器翻译、自然语言处理、语音及视觉识别、智能机器人等均取得进展,人工智能界希望人工智能能够拥有类似人脑的越来越多的功能、不断打破人脑与人工智能之间的限界,如1959年纽厄尔和西蒙发展出“通用问题求解器”(General Problem Solver),可以处理一些普遍的数学问题;1966年,魏泽鲍姆(Joseph Weizenbaum)发明ELIZA,这是人类历史上第一个具备可使用特征的自然语言对话程序;1972年,维诺格拉德(T.Winograd)在MIT建立了一个可用自然语言指挥动作的机器人系统SHRDLU,它可以用普通的英语句子进行交流,并执行相关的操作。  

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多