分享

何光沪| 造物·风险·规限--从宗教角度看人工智能

 学院2009 2023-02-24 发布于北京

图片
造物·风险·规限——从宗教角度看人工智能
图片


摘要:根据专家说法, “超级人工智能”可能带来的巨大危险迫在眉睫, 人类迫切需要“友好人工智能”。从占世界人口多数的几大宗教角度看, 人工智能是人类把自己的部分本质属性 (计算、推理、谋划等理智能力和创造力) 赋予机器的产物, 犹如上帝“按照自己的形象造人”。人类应从中吸取教训, 从正面说, 必须思考如何赋予人工智能以“良心”, 使其真正对人类友好;从负面说, 必须思考如何避免人工智能得到“自由”, 使其不能对人类反叛。人类从宗教得到的教益, 最重要的是要爱人;当代人类不要只图人工智能的利益, 还要警惕人工智能的风险, 必须学会自我规限, 预防灭顶之灾。

关键词:人工智能; 宗教观点; 良心; 自由; 自我规限; 预防灾难;




图片
引言

“人工智能”是目前最热门的话题之一。按照一些专家的总结性说法, 人工智能的发展有三个阶段。[1]第一个阶段, 是“狭义人工智能”或称“弱人工智能”阶段。其特点是, 我们赋予了人工智能一定的或某些方面的人类能力, 比如计算、记忆、谋划等能力, 以便其完成特定的任务。典型就是让“阿尔法狗”学习围棋技巧, 以便战胜世界围棋冠军。

人工智能发展的第二个阶段, 是“广义人工智能”或称“强人工智能”。它同狭义人工智能的最大区别是可以得到全面的人类能力, 除了有自我学习、自我改进的能力, 还能够确定目标, 甚至有繁殖的能力——它们可以制造很多的后代, 改进了的、比自己更强的后代。

业内绝大多数人认为, 2075年或者说本世纪的下半叶, 广义人工智能就会出现。这将是一个重大转折点。因为人工智能处理能力的增长, 是几何级数或指数级的增加, 所以其学习能力以及其他方面的能力, 都会爆炸式地增长。于是, 在“广义人工智能”出现以后, 我们会在几年之内甚至几个月之内进入第三个阶段, 就是所谓“超级人工智能”的阶段。

“超级人工智能”比人的能力强大得无法想象。其增长的速度, 可能是几分钟之内成百倍, 很快就变成百万倍, 然后变成百亿倍!以这样的速度来增加能力, 它们很快就可以控制这个世界或者控制人类, 所以极其危险。

这就引出一个问题, 即我们必须进入这样一个阶段——“友好人工智能”的阶段。换言之, 我们必须使“超级人工智能”不对人类造成危害。可惜, 我们对此现在毫无把握, 甚至无法预测。宗教则可以为我们审视人工智能的发展及其与人类的关系提供一个重要的视角。

图片
人的造物与人性

说到宗教的角度, 由于世界上宗教太多, 许多宗教的观点都不一样, 所以, 我们仅从其中最大的或人数最多的宗教, 即基督教 (23亿信众, 占世界人口1/3) 的角度来看。就上帝 (或天主或真主或雅威) 创造世界而且造人这个问题来看, 基督教的基本观点同犹太教、伊斯兰教的观点基本一致。这三个宗教的信徒超过了世界人口的一半以上, 如果加上印度教徒, 就已经超过了世界人口的70%。

按照上述宗教的观点, 世界和人是上帝或神的造物, 神是按照自己的形象创造的人。关于什么是神的形象, 神学的回答复杂、多元、有争议, 所以我们可以这样来探究所谓神的形象——既然世间万物并非都是按神的形象所造, 而只有人是如此, 那么, 思考人和万物的区别, 思考万物没有而只有人才具有的那些性质, 就可以得出一个大致合理的结论。

万物都没有, 只有人才有的性质, 即人的特性, 有哪些呢?迄今我们所知道的, 在人工智能出现以前所熟悉的, 至少有三项——自由、心智、创造性[2]。

自由, 即一事当前, 不由法则来决定, 而由意志来选择的能力。不用说其他事物, 即使在能动性方面最接近人的动物, 其行动也全都是由自然法则来决定的;人虽然不按自然法则行动可能会吃亏, 但人的意志可以选择顺从或者违抗法则。

心智, 包括两大部分。一部分是“心”, 指的是情感、想象、良心等非理性的能力;另一部分是“智”, 指的是计算、推理、谋划等理性的能力。

“创造性”, 就是制造或创造前所未有的新事物的能力。

当然, 人的自由, 同上帝的自由相比是有限的, 因为它受到先在条件的限制;人的心智, 同上帝的心智相比是有限的, 因为它也受到限制, 起码有时间和空间的限制;人的创造性, 同上帝的创造性相比是有条件的, 因为创造的原意, 按照这些宗教的说法, 是上帝“从虚无创造”, 从无到有的创造 (宇宙创生于时间、空间和物质都趋近零的“奇点”, 即虚无;老子说万物产生于道, 而道即无, 也有此意) , 与之相比, 人的创造需要先在的质料或物质, 所以是有条件的。

人的这三个特性, 或人与万物不同的“本性”, 在人的实际生活中, 即在哲学所谓“实存”中, 自由表现为欲望的无穷, 这就需要“良知”的指引;心智表现为求知的无尽, 这就需要以“悟道”作为目标;创造性表现为超出感情意义、伦理意义的爱, 即博爱、泛爱、大爱, 这对于人性有超拔的作用。

一言以蔽之, 人的本性或能力“是有限的”。人应该明白这一点, 才算是认识自己, 才算有自知之明。

此外, 基督教还认为, 人之所以堕落, 被逐出伊甸园, 是因为人听从了魔鬼的引诱, 想要“像神一样”, 违背了上帝对人的规定。于是, 上帝赋予人以自由, 遭到了反叛;人因违规滥用自由, 遭到了惩罚。总之, 关于上帝“形象”的说法, 以及伊甸园和后来巴别塔的故事都表明, 人应该对自己有所规限, 而不该滥用自己的自由。

如同人是上帝的造物一样, 人工智能是人的造物。但是, 它同其他的任何人造物都不一样, 这一点意义重大。

人把石头磨成石斧, 把树枝磨成梭镖, 是所谓“文化”的开始, 即人初步地“人化”自然。后来的人类文明, 有几千年的农业时代、几百年的工业时代, 其间, 人类创造了种种工具、机器, 那虽然蕴含着人的智慧, 但都旨在减轻或取代人的体力劳动, 并且主要是生产物质产品。然而, 我们知道, 同动物不同的人的本性, 不在于体力, 不在于肌肉的力量或物理力量, 因为动物也有同样性质的力量。所以, 人并未将自己的本性赋予机器。

可是, 人这一次的造物, 是第一次试图“按照自己的形象”来创造, 像上帝造人那样。人这一次想要机器拥有的, 不是体力, 而是脑力。

此外, 人还有精神的产品, 那的确是人类特有的, 是人性的产物和表现。但是, 精神产品在以前只有人能够创造, 而现在电脑作画、作曲、作诗, 似乎能生产精神产品。在前农业时代、农业时代以及工业时代, 精神产品都离不开物质载体;文学、史学、哲学、艺术、音乐, 都离不开木石、金属、纸张、画布、塑料等物质载体。而现在电脑作画、作曲、作诗, 都以数码信息保存, 但是信息本身, 应该不属于物质。

以往文明的事实表明:第一, 人类没有让渡自己的本质, 没有把自己的本质交出去;第二, 人类没有办法摆脱自己的局限, 而要依赖于物质材料。

但是, 在我们这个时代, 文明史上的第三时代, 即已经有了几十年时间的信息时代, 或者正在开始的人工智能时代, 人类已经开始把自己本性的一些部分——创造性, 以及心智的组成部分即理性部分, 包括记忆、推理、计算、谋划甚至理解和学习等, 都交给了机器。这是一个巨大的变化, 划时代的变化, 革命性的变化。中文“电脑”这个词是最好的说明——脑本在自己身体之内, 人竟然造了一种自己身体之外的“脑”!中文“机器人”这个词也是很好的说明——人想让机器变得像人一样!

图片
人工智能的风险

前面提到, 很多人工智能专家认为, “广义人工智能”最多在几十年之内就将来临, 随后, “超级人工智能”在“广义人工智能”来临后几个月或几周之内就会来临。被誉为“当代牛顿”的斯蒂芬·霍金, 大家熟悉的比尔·盖茨, 还有一位天才的科学家兼企业家埃隆·马斯克 (Elon Musk) , 都写文章提出了警告。他们认为, 应该考虑立法, 限制人工智能的研究。因为, “人工智能很可能导致人类的永生或者灭绝, 而这一切很可能在我们的有生之年发生”, 这句话代表了这三个人和其他专家的观点。他们的观点不可忽视, 必须认真考虑并采取行动, 否则人类有可能面临灭顶之灾。

当然, 我们也应该看到好的方面。有很多专家提出了好坏两种场景。好的或乐观的场景是:人类可能永生, 人会变成希腊罗马神话中的那种神, 或者变成所谓“后人类”“超人类”。坏的或悲观的场景是:人类可能灭绝, 比我们能力强大无数倍的机器人或人工智能, 由于不喜欢我们、害怕我们, 或由于疏忽, 都有可能毁灭我们——想想我们人类, 仅仅由于疏忽, 就毁灭了多少植物、动物和人的生命甚至物种啊!

按蔡斯的总结, 好的方面或值得乐观的理由有5条:1.智能高了, 会更仁慈;2.它们没有目标;3.我们可以控制最终目标;4.它们同人没有竞争;5.人类一直在创造有超人能力的机构, 如政府、市场、军队, 去完成个体的人不能完成的任务, 这类独立机构有人类需要的功能。[3]然而, 如果仔细分析, 我们会发现, 这些所谓好的前景或乐观的理由, 都是成问题的。

1.从人类自身的经验来看, 尽管现在人类的智能比原始时代、比文明初期高多了, 但看来并不比以前更加仁慈——就在不久前的20世纪, 一些智能很高的人, 不仅在战争时期, 而且在和平时期, 制造了无数惨剧。2.人工智能在各方面的能力都等于还会大于人类, 而且自我学习能力增长极快, 不能排除它们最终会有自己的目标。3.人可以为它们设定最终目标, 但是它们在某些中间环节或复杂条件下可能出错 (比如你给它们定的目标是消除贫困, 这会有很多中间环节和复杂条件, 于是在某些情况下它们有可能伤害人类:一个故事说, 有个财主想消除周围的贫困, 于是把周围的穷人全赶走了) 。4.人工智能是需要某些矿物原料才能生存的, 也许有一天, 他们会同人类争夺原料, 甚至不排除有朝一日它们发现我们身上的原子是可以利用的原料, 那样的话, 结果可想而知。5.对于人类自己创造的上述能力超人的独立机构, 现在人类控制它们的能力都正在出现问题, 难道控制超级人工智能的能力就不会出现问题?

在蔡斯看来, 坏的或悲观的理由更多, 共有8条:1.它们会变得不友好;2.它们在态度中立的情况下, 也有可能变成祸害;3.它们有可能先发制人;4.它们完全有可能反对人类;5.它们可能弄巧成拙;6.它们可能一意孤行;7.它们会让人生变得没有意义;8.它们可能蓄意杀人。[4]

这8条反而非常有可能实现。1.前面提到, 例如它们为了生存而需要争夺原料或资源, 就可能变得不友好。2.人类对世界上很多东西的态度都是中立的, 但是这并没有妨碍我们去祸害许多我们不喜欢也不讨厌的东西, 例如小白鼠。3.为了自我保存, 或消除某些威胁 (例如发现人类要限制它们) , 它们可能采取先发制人的措施, 攻击人类。4.我们自己都知道人类的罪恶和祸害, 超级人工智能也可能会知道, 并把人看成地球的病毒。5.关于弄巧成拙, 例如你命令一个机器人要使人愉快, 它可能用刀子在人的脸上刻画出笑脸来;由于它们的执行能力极强, 一个决策程序的小错误, 就可以导致大灾难。6.关于一意孤行, 蔡斯的比喻很有趣:一个造回形针的公司, 如果先造出了广义人工智能帮它经营, 就可能会让回形针泛滥成灾。7.说到人生意义, 那是每个人都必需的。然而, 如果你崇拜梵高, 绘画是你的人生意义, 但是你模仿梵高风格的画, 永远没有人工智能画的好;如果你崇拜巴赫, 作曲是你的人生意义, 但是你模仿巴赫风格辛辛苦苦作了500首曲子, 而人工智能轻轻松松就作了500万首巴赫风格的曲子, 而且比你作的好得多……任何人做任何事, 都不如它们, 而且永远不可企及。这样, 希腊的神话故事就成了现实:永远活着, 会变成最大的惩罚。8.至于“蓄意杀人”, 这可能是由于首先研发出它们的是相互敌对的政府或军方, 也可能是由于它们发现自己受到了人类的束缚或竞争, 当然也可能是由于前边提到的它们对人类的敌视。

在此, 我们必须提到一个重要概念——“奇点”, 即发生重大变化的那一点。奇点意味着奇点之前的人没法想象奇点之后的事情。例如, 在广义人工智能出现之后, 从好的方面来看, 会使得人们可以坐享一切 (现在芬兰已经实现了“全民基本收入”, 即不工作也有薪水、也能生活, 瑞士也就此搞过全民投票) , 人工智能完全可以帮助人做到这一点。又如, 超级人工智能同医疗基因工程结合之后, 人类可以享受健康的生活, 甚至还可能长生不老, 实现某种乌托邦。

但是, 奇点也意味着, 奇点之后的事情如果是灾难, 我们也没法想象。我们可能被灭绝, 甚至比灭绝还要糟糕——如果大家都死, 没有痛苦, 人们似乎觉得无所谓;但超级人工智能或机器人, 完全可能像一只猫玩弄一只小鸟, 无穷无尽地折磨人。这样, 中世纪所说的地狱, 就可能成为人造的现实。即使人工智能并不仇恨人类, 就像小猫并不仇恨小鸟一样, 这也可能发生——它们可能只是喜欢这样或者为了玩耍。它们有极高的智能, 但是很可能没有常识, 这个常识是指对存在与万物关系、对人与人之间关系、对善恶是非的意识, 或者我们所谓恻隐之心、天理“良心”。总而言之, 它们完全可能能力超强, 却没有良心, 这个问题比它们可能对人“不友好”更加根本。

图片
预防风险与规限

综上所述, 可以说, 人类面临着有史以来最严重、最可怕、最大规模的威胁, 也许比核武器的发明严重得多。为此, 已经有一些有识之士发出呼吁:“制定法律, 限制研发。”这件事情, 至少必须立即提上议事日程。

一个方案是悬崖勒马、停止研发。这的确很难做到——不但很多公司贪图自己的利益, 还有很多国家只顾自己的利益。中国现在提出的国家发展战略, 是要在人工智能方面占据战略高地, 这种语言表示的不仅仅是竞争。实际上, 巨大的逐利心和求胜心, 是人类共同体合作的最大障碍。

还有一个方案是设置“开关”。蔡斯问道:互联网的开关在哪里呢?因为人工智能是在互联网高度发达的情况下开发的, 它涉及的绝不仅仅是简单的电源问题。

还有一种想法是, 让人脑同人工智能连接, 以便控制。有些科学家认为, 人脑同人工智能的区别是本质性的, 所以无法解决二者连接的问题。人如何变成半机器人, 像希腊神话中“半人马”或“半人半神”?人应不应该、可不可以变成那样?这些都是问题。

还有一个控制它的方案是把它封闭起来, 加上守卫, 让它只有接到人的命令才能行动。但是, 它有那么高的智能, 完全可能用巨大的、难以抵抗的好处引诱看守者, 或者反过来威胁他, 施加残酷的折磨, 使他屈服, 从而打破牢笼。

正因为如此, 蔡斯指出, 人类必须战胜的, 是这场正在逼近的浩劫。胜利的奖赏是辉煌的未来——人类长生不老, 实现千年梦想;失败的惩罚是人类灭绝, 甚至更糟。所以, 他号召全世界70亿人联合起来, 预防这个灭顶之灾!然而, 众所周知, 对于分裂为各族各国, 只想着战胜别族别国的人类来说, 这的确太难了!

既然预防这个大灾难, 是关系到全体人类的大事, 是关系到文明前景的大事, 那么, 从人类大多数都信奉、始终与文明相伴随的宗教的角度进行思考, 自然是应该而又必须的。

从正面说, 我们必须思考, 怎么赋予人工智能以所谓的“心”或“良心”。前面提到“心智”的两个部分, 人工智能已经有了“智”, 只是理智的“智”, 即哲学家所谓“工具理性”或“技术理性”;但是却没有“心”, 超越理智的“心”, 即哲学家所谓“价值理性”或“存在理性”, 或者老百姓说的良心、人心。尽管从宗教哲学角度来看, 我们现在还看不到赋予人工智能以“良心”有实现的可能性。

从负面说, 我们必须思考, 怎么防止人工智能获得所谓的“自由”。作为人的本质或人性首要因素的“自由”, 不是从社会政治上说的那种“自由” (那多半应该说成“权利”) , 而是哲学上说的“意志自由”, 即可以自主选择, 可以做好事也可以做坏事的能力。如果给予人工智能这样的自由, 那就是给了它们“反叛”人类的可能性和能力。尽管从宗教哲学角度来看, 我们也很怀疑赋予人工智能以自由有实现的可能性。但是, 很多人工智能专家认为, 广义人工智能经过学习, 完全可以自己思考目标、自己做出抉择, 那就很接近前面所说的“自由”了, 那就非常可怕了。

总之, 给予人工智能“良心”, 让它们对人类友好;不给它们“自由”, 以免它们滥用自由而反叛人类, 这是我们必须思考、必须做到的事情。但是, 前一件事情很难, 后一件事情也很难。

《圣经·创世纪》说, 人是因为想要“像上帝”, 滥用了自由, 所以遭到惩罚。而现在, 人又想要扮演上帝, “按自己的形象”造人工智能。所以, 人面临的危险, 也许就是第二次的、更严重的惩罚。

我们应该从上帝那里学习经验, 上帝给人自由, 人滥用了自由而反叛, 这似乎是负面的经验。但是, 按照神学的说法, 上帝如果不给人自由, 那就不是“造人”而是造动物了;既然已经造了多种动物, 仅仅再多造一种, 就没有任何意义了。所以, 尽管有遭到反叛的风险, 还要“按自己的形象”造人, 还要给人以自由, 这恰恰是创世的顶峰, 是天父慈爱的表现。

中国有一句俗话——“养儿才知父母恩”。现在, 人类正要“按照自己的形象”造一个东西, 正开始知道可能面临反叛的风险, 由此, 就可以知道自己不应该反叛。但是, 宗教的比喻也不能过头——人工智能并不是人的儿女。耶稣给人最大的诫命, 一是爱上帝, 一是爱人如己。我们应该爱的是人, 不是人造物。人要向上帝学习的, 就是爱人, 不是爱人造物, 我们要爱那些同我们一样是人的儿女, 爱人类的子孙后代。

正因为如此, 我们要学会自我规限, 预防人类面临的灾难。我们不能只图人工智能正面的利益, 而且要警惕人工智能负面的后果, 只有这样, 才能防止全人类陷入灭顶之灾。

参考文献

[1][3][4]卡鲁姆·蔡斯, 张尧然译.人工智能革命--超级智能时代的人类命运.北京:机械工业出版社, 2017:xiii-xiv、130-137、137-146.

[2]何光沪.百川归海--走向全球宗教哲学.北京:中国社会科学出版社, 2008:218.

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多