分享

人工智能:如何理性认识人类面临的危机? | 社会科学报

 圆角望 2021-09-08

新冠疫情扰乱了世界各地的生活,人类对自身的生存风险充满担忧。今天,我们该如何正确认识人类面对的种种危机?近日,麻省理工学院经济学教授达隆·阿齐默鲁(Daron Acemoglu)在《评论汇编》刊发文章《担忧的正确方式》(The Right Way to Worry)讨论了牛津大学高级研究员托比·奥尔德(Toby Ord)2020年的新书《悬崖:生存危机和人类的未来》,阿齐默鲁认为简单地承认人类面临的生存威胁只是认识过程的开始,真正的挑战在于如何理性区分这些危机的轻重缓急。

图片
图片

原文 :《如何理性认识人类面临的危机》

编译 | 李彦文

图片 | 网络

6500万年前,一颗小行星撞击了现在的墨西哥希克苏鲁伯镇,恐龙的时代结束了。尽管这块陨石不是特别大,直径约10公里,但它撞击地球的速度超过每小时6万公里,产生的爆炸威力是落在广岛原子弹的数十亿倍,杀死了1000公里内的所有生命。更不幸的是,这次爆炸将一团巨大的烟尘和灰烬送入更高的大气层,在接下来的几年里挡住了太阳,阻止了光合作用并导致温度急剧下降,科学家们认为正是这种大气尘埃和硫酸盐气溶胶最终杀死了恐龙和许多其他物种。

如果今天有一颗类似的小行星或彗星撞击地球,那将引发另一场大规模灭绝事件,摧毁我们所知的大多数物种和人类文明。这种可能性看似遥远,却是人类生存危机在大自然中的一种体现,即非人类导致的物种灭绝或接近灭绝。但同时我们也必须注意到人为的生存危机。牛津大学高级研究员、哲学家托比·奥尔德(Toby Ord)在2020年出版了新书《悬崖:生存危机与人类的未来》(The Precipice: Existential Risk and the Future of Humanity),振聋发聩地指出,现在和未来的世纪我们最应该关注的正是这类风险和危机。

图片

生存危机:技术警醒和乐观愿景

奥尔德认识到科学和技术是人类解决问题和实现繁荣的最有力工具,但他提醒我们,这种能力总是伴随着危险,特别是当置于坏人之手或在不考虑长期和意外后果情况下使用时。更重要的是,奥尔德认为,人为的生存风险已经高得令人震惊,因为我们已经开发出能够摧毁人类的工具,却没有相匹配的智慧来识别我们所处的危险。他指出,20世纪著名的天文学家卡尔·萨根(Carl Sagan)在他1994年的著作《暗淡蓝点》(Pale Blue Dot)中发出了类似的警告:“我们面临的许多危险确实来自科学和技术,但更根本的是因为我们变得强大但没有变得同等睿智。技术赋予我们改变世界的力量,而现在这种力量需要反思和前瞻,这是我们以前从未考虑过的。”

对于奥尔德来说,这种力量与智慧之间的鸿沟可以决定人类的未来。一方面,人类可能完全消失,或者遭受疫苗、抗生素、文学、艺术等主要人类文明特征的毁灭。但是,另一方面,奥尔德看到了人类在宇宙范围内长期繁荣的潜力:凭借智慧和技术独创性,人类很可能比这个星球存活得更久,并在太空中创建新的文明。基于这种推理,奥尔德的哲学立场采用了类似笛卡尔乘积的完全排列组合,得出的结论是,人类首要担忧的应该是尽量减少生存风险,无论付出什么代价,都要规避未来的人类生存危机。无论其他标准和因素如何,只要人类能够实现未来生存风险最小化,就胜过任何没有风险最小化的未来。在建立了这个基本的优先选项之后,奥尔德接着对不同类型的人为生存风险进行了分析,得出的结论是,最大的威胁因素来自已经超出我们控制范围的人工超级智能。

图片

技术滥用:缺席的规范与智慧

科学驱动的人类生存风险至少可以追溯到核反应产生的核武器。但人类社会的智慧自这一致命性的创造产生以来并没有进步,早期对广岛和长崎的轰炸已是人类对此危机认知的顶峰。奥尔德的说法很可能是对的。虽然我们已经建立了一些制度、规范、监管工具和其他内化机制来确保我们不会滥用科学,但谁也不敢说这些就足够了。奥尔德认为,今天不完善的制度框架可以只是一种暂时现象,只要人类能在下个世纪左右存活下来,就可以在适当的时候解决这些问题。他写道:“因为我们正处于人类物种历史的关键时刻”,奥尔德“渴望缩小人类智慧和力量的差距,让人类清楚地看到利害关系,以便我们做出必要的选择,来保护我们的未来。”

但到目前为止,我们还没有看到任何证据表明奥尔德的愿景确实可行,也没有任何迹象表明我们的社会和领导人在控制技术破坏力方面表现出任何智慧。诚然,人们可以根据德国社会学家诺贝特·埃利亚斯(Norbert Elias)著名的“文明过程论”来论证奥尔德的乐观期待。根据埃利亚斯的说法,自中世纪以来,随着经济的发展和国家机构的出现,解决冲突和控制暴力的手段增强了,在公共生活中人们越来越多地采用有利于大众社会共存的行为方式。埃利亚斯用放大镜辨别出发达经济体的公民变得不那么暴力和更加宽容,这一点由于哈佛大学认知心理学家和语言学家史蒂芬·平克(Steven Pinker)的最新的畅销书《人性中的善良天使:史上暴力的衰落及其原因》(The Better Angels of Our Nature: The Decline of Violence in History and Its Causes)而变得更广为人知。

姑且不论埃利亚斯的论断只适用于一些细分案例,即使这样的文明进程更广泛地影响了个人行为规范和社会交往模式,似乎也没有影响到众多政治领导人、科学家和技术人员。20世纪上半叶,诺贝尔化学奖得主弗里茨·哈伯(Fritz Haber)孜孜不倦地利用他的科学知识发明了化学武器,并在第一次世界大战中向德国军队大肆兜售。在二战后热切接受核武器的政治领导人也没表现出受文明进程影响的有力佐证。有人可能会说,过去 75 年来人类没有重演一战或二战悲剧,这就是希望。但他们忽视了这期间许多未遂危机事件,如奥尔德书中开篇章节提到的1962年古巴导弹危机。我们可以找出更多与人类变得更加“文明”相矛盾的例子,更不用说人类是否能够更好地控制人为风险或培养集体智慧了。人类必须承认,控制自身不良行为、适应科学发现和技术创新带来的不断变化仍将是一场持续的斗争。

图片

当下问题:失业危机与社会操控

从这个层面思考,奥尔德的论点是有问题的。为什么要把努力消除未来的人类生存危机作为重中之重?眼下人类的选择已经正在引发当下和近期各种弊病和苦难,为什么要将未来风险置于当前行为之上?这就好比说,假设在未来几世纪内,人类通过奴役大多数人可以显著降低自身灭绝的可能性,那么我们将必须选择这个选项,因为它最大限度地减少了人类生存危机。

奥尔德关注的主要生存危机是:人工智能存在被滥用的可能。他委婉地将所认定的邪恶的超级智能称为“不规矩的人工智能”,认为在未来100年内人类有10%的机会成为此邪恶物的牺牲品。相比之下,他估算气候变化对人类造成的生存风险为千分之一,小行星或彗星撞地球的风险则为百万分之一。确实有许多专家和奥尔德一样对人工智能的长期后果表示担忧,这种担忧在众多技术精英中很普遍。但奥尔德忽略了大多数与人工智能相关的非生存风险。如果人类承认自身认知范围的有限性,那么这种对优先级的权衡是有问题的,超级智能很快出现的可能性很低,邪恶的超级智能摧毁文明的风险更低。大众忧虑的焦点应该是人工智能对人类已经造成的问题,而不是关注谜之未来。

图片

当前人工智能的设计和发展路径已经将人类引入歧途,导致了一系列并不引人注意但却迫在眉睫的问题。人工智能发展的轨道并没有展示出技术发展的内在逻辑,而是反映了大型科技公司做出并强加给人类的选择,特别是这些公司内部的一小撮高管、科学家和技术人员。人工智能引发的最突出问题就是不断的自动化正在取代工人的劳动,这加剧了人口的不平等,并加大了未来大量劳动力失业的可能性。更糟糕的是,对自动化的痴迷是以生产力发展为代价的,因为这让高管和科学家为追求自动化而自动化,从而忽视了有些创新技术可以更富有成效地用于人类劳动的补充。我们更需要正视的是,新的人工智能技术赋予政府和公司监控和操纵数十亿人行为的能力,却并没有激发人类道德进步的希望。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1767期第7版

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多