分享

ChatGPT与人类的相互超越——后人类时代的雏形已经到来

 sunanbuzaijia 2023-05-10 发布于宁夏

目前热烈讨论的“ChatGPT”话题,英语为“Generative Pre-trained Transformer3”,意为“生成型预训练变换模型”,简称GPT-3。它是一个自回归语言模型,目的是为了使用“深度学习”生成人类可以理解的自然语言。全新的 ChatGPT ——经由人类反馈强化学习Reinforcement Learning from Human Feedback,简称 RLHF)训练,是一种依赖于人类反应的算法创建的新模型,比以往的智能聊天机器人更加' 人性化 '。一场新的变革,正在酝酿。

1950年,才华横溢的计算机科学家艾伦·图灵提出了一个他称之为模仿游戏的思想实验。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器。图灵建议,如果一台机器能够始终让面试官相信它是人类,我们就可以说它有能力思考。这就是著名的图灵测试

图片

目前,ChatGPT并没有通过“图灵测试”,它仍然是人类智能所创造的机器。它不是人,未来也不可能取代人——这个判断的学理依据在于,ChatGPT的强大能力,最终仍然返回语言与逻辑,但这只是人类能力的一半,也就是理性。既然语言与逻辑都是人类创造的精神产品,那么它们都是某种已有的知识,而从知识出发,相当于从既有的结论出发,这不可以作为我们思考的起点。我们应该追溯语言与逻辑的起源,而不是将它们视为现成的东西,这就得返回人之为人的更为根本的直觉能力,直觉同时是语言与逻辑的剩余物与起源。

以下我们将围绕直觉与逻辑理性的冲突,讨论与ChatGPT有关的哲学话题。为了使我们的讨论更具有科学依据,我们不纠缠ChatGPT的技术操作层面的具体问题,而是通过讨论它的基础问题,即逻辑与数学,指出GPT-3无法解决的哲学疑难,以证明我们的结论:作为当代人工智能的最高端,ChatGPT所具有的记忆知识的能力,远远超越了人类。但是,人类所具有的直觉能力,却是现在与未来的人工智能不可能达到的,因为直觉永远都是逻辑计算中的剩余物、超越物。

换句话说,ChatGPT与人类是相互超越的:ChatGPT对于人类的超越,将使得近代以来人类对于思想的界定,产生根本的动摇。英国哲学家培根曾经精辟地将这种界定归结为“知识就是力量。”获得知识取决于学习和记忆能力,由于有了ChatGPT,就像有了导航设备,人们再不必花费大量时间去记忆知识,这种依赖性是必然的、无法避免的。不仅如此,由于ChatGPT具有惊人的记忆与学习能力,由于它已经或者还将日益广泛地在人类日常活动中产生广泛影响,可以预期它将有能力取代人们很多程序化的、重复性职业,这势必极大地改变人类的生存方式——这里有某种根本的断裂,会有深深的忧虑甚至恐慌,不仅保安、护士、司机、售货员、翻译的职业,在可预见的将来将被取代,甚至医生、公务员、教师的岗位,在未来也受到威胁。这些现象的一个直接后果,就是人将成为“多余的”乃至“无用的”,它使得人类将进入“后人类时代”,而这个新时代最为迫切的问题,将是伦理问题。也就是说,在这个根本断裂发生之后,活着或者生存的价值之意义,在哪里?面对这种十分紧迫的,来自人工智能的威胁,人类将不得不求助于哲学。

以下,笔者将首先对于正在发生的ChatGPT深刻影响人类生活的现象作事实描述,然后从学理上考察为什么人类的逻辑、计算、知识能力和创造性来自直觉(这是本文的核心部分),最后对于“后人类时代”做某种展望。

                                               一

如上所述,后人类时代的到来,不是危言耸听,而是一个事实,我们以往所在意的,经过刻苦学习才得到的学习能力将被取代,知识和记忆力变得不再重要。以下的情形已经被证明,而不再是假设:ChatGPT是最为强大的“思维工具”,但它实际是赤裸裸的合法“抄袭”与“剽窃”(收集数据与资料,经过计算与优化重组),使用这个工具的人本身可以不思考,只需要输入所要提出的问题,回答的速度和准确程度都是普通人难以达到的。“不得使用ChatGPT写论文和考试”的法规,根本无法落实,因为人类具有投机取巧本性,趋利的本性。

以下是笔者收集到的相关材料:ChatGPT可以写出人类无法与电脑区别的文章与字符串。存在于云上、已经训练好了随时可用的人工智能“模型”。 它是一个语言模型。它做的都是能用语言描述的事情。 而能用语言的事儿实在太多了。关键在于它不是胡乱写,能做到前言后语有逻辑性,内容切合题意。比如,你让它以 Facebook CEO 的名字“扎克伯格”为题写一条 twitter,它写的是“离扎克伯格远点,现在最危险的事儿就是科技公司正在进军金融领域。有人在写一篇叫做《如何高效地开董事会》的文章,自己写了一半,把这个前半部分输入到 GPT-3, GPT-3 就把后半部分给写出来了,有理有据,还列出了原作者未曾想到的几个点。它可以用你的语言风格写这篇文章。

你要是指定一个作家的名字,它还能使用那个作家的语言风格。 GPT-3 还会写诗、写情书、写产品说明书、写剧本。它还会像个真人一样跟人对话,它会翻译,会回答问题,会“完形填空”,会做阅读理解题,而且会做公务员考试题。

比如下面这两句话 —— 1. 我带着狗出去散步。 2. 我带着香蕉出去散步。语言模型知道第一句的可能性更大。这个知识不用特意教,模型并不知道狗和香蕉都是什么东西,散步是什么意思:它只是阅读了太多的文字,它知道当人们说“散步”的时候更容易提到“狗”,而不是“香蕉”。

现在GPT-3模型眼中词与词之间的关系变得更深了,以至于你可以做一些逻辑上的加减法运算。比如说 巴黎 - 法国 + 意大利= ? 你猜等于什么?罗马。

作为一个集合了人类世界过往思想的人工智能,ChatGPT 正给学术界带来巨大冲击。已经有学生这样感叹:如果我在高中和大学期间就有这样的老师该有多好!有人做出这样令人震惊的结论?可以重新发明大规模教育的概念,曾经的大学可能不复存在一名大学老师则发推文表示:'ChapGPT 写的这几篇论文能过我的课了。有人这样质疑:这样所有学生不是会上交类似的论文吗?但是,有更懂行的人这样说:可以让ChatGPT按照某种风格写出独特的文章,例如具有陀思妥耶夫斯基风格的东西,还可以让ChatGPT按照混合风格并以 14 岁的水平去写作。

但是,ChatGPT的上述才华,并不能掩盖它的尴尬。当问及ChatGPT时,它回答道:我是一个机器学习模型,不像人类那样拥有意识或自我意识。我也无法像人类一样感受情绪或体验世界。但是,我能够快速处理大量数据,并且能够以类似于人类交流的方式理解和响应自然语言输入。

从上述事实可以看出,ChatGPT并不具有自我意识,因此它永远无法取代人类的哲学与艺术意义才华,因为思想逻辑是奠基在直觉基础上的,ChatGPT并没有直觉能力,它只是对于海量知识收集之后,对于与其聊天者的模仿式的逻辑反应,最为关键的在于,它不知道自己在做什么,它没有自我意识,因此它的意愿是被动的,而不是自主的。被动的意愿是指令性的意愿,它违背自由意志,而没有自由的意志将不再可以被称为“意志”。ChatGPT的问答是有一个界限的,它无法面对“我知道'我知道’”的无限回溯。它无法模仿没有精神病的“精神病”和没有真正病理上的发疯的“发疯”。语言无法替换切己的亲身体验。

                                                 

我们从哲学上讨论ChatGPT的界限,即它不能做什么?根据康德,对象是自我意识的产物:对象是一种表象,我们所意识到的事物或者现象,不能与事物本身或者物自体,混为一谈。换句话说,某些超逻辑的东西构成了所有知识的先决条件,这就是人类先天的直觉能力,空间直觉为我提供“外在感觉”,时间直觉为我提供“内在感觉”。直觉的魔力在于它自身就是基础,它超越了逻辑证明,从而也超越了理性,无论这种理性是以笛卡尔式的唯理论,还是以休谟式的经验论形式表现出来。

人类天生具有直觉能力、具有自我意识能力,外感官的经验本身有赖于直觉所给出的判断:如果我单独在房间,看见面前一个苹果,然后闭上眼睛,再睁开,又在同一个位置看见苹果,时间上我经历了两次,但我仍然认为只有一个苹果,我这不是经验判断,而是来自天生的空间直觉判断。

下面这个例子更明显说明人类具有自我意识:如果我是我自己的认知对象,那么在不同的时空环境下,有很多不一样的自我。从肉体看,只有一个我,但从精神行为看,我的相互冲突的任意行为,能做出不像我能做出的事情,它来自我选择的任意性。在不同的意愿下,有多个自我,它们都是真实的我。但是,ChatGPT显然不具备这样的反省能力,我在与一个最笨的人聊天,或者与一个疯子聊天的时候,也知道对方是人,即使对方是蠢的或者是一个精神分裂者。但我与ChatGPT聊天时,不认为它是人,因为它过于正常、不闹情绪,不犯错误,因此它不可能通过上述“图灵测试”。

什么是自我意识呢?比如,我在向前跑的状态下,我知道我在向前跑,进而还有我知道“我知道我在向前跑”,这种后撤可以是无穷的,直到我们不再追究这个问题。这种与自身分离开来的奇特能力,也是ChatGPT所不具备的。为什么呢?因为ChatGPT只拥有知识,但是无法反省自身。一个重要区别在于,自我意识本身并不是知识,而是获得知识的先决条件。换句话说,上述“我知道我知道”的情形,并不是在经历了一次又一次的经验知识之后,才知道的。

自我意识或者说反省过程中,对于对象的描述,可能不准确甚至是错误的,但这并不重要,重要的是人类具有反省的能力,这是智能机器人不具备的。这里的重要区别在于,“犯错误”,或者说“不确定性”,既是人的一个天性,又是人的优势,而人工智能不犯错误,不仅显得不像人类,而且是它的劣势,因为它是建立的程序化的确定性基础上的,这种已经确立的“共同体”的信念,反而是幼稚的。

但是,事情的奇妙之处,并没有终结于自我意识,我之所以能辨别我的身份,是因为有他人的存在。换句话说,在我身上有某些不是我的东西,这就是存在于我身上的浪漫因素。也就是说,它不是以客观知识形态存在的东西,而是知识的先决条件,它是超语言的。是直觉到的,是出于流变过程中的自由意志。自由选择的意愿导致人类具有一连串的创造活动的能力,这种活动本身是超语言的,它高于人工智能,因为ChatGPT实际上是对于人类语言知识的模拟。正像一个数学家说的:“连续的'创造性’行动是不能在一种先验的固定语言中被把握的。”[1]

人工智能不浪漫,是因为它不懂得,只有不完备本身才是浪漫的,而人工智能的目标动机,却朝向完备的无所不能。这里隐藏着科学与人文的战争:科学总是试图还原为确定的基本元素与客观规律,越是清楚明白越好,而人文思考却认为,科学的还原忽略了活生生的人的世界,人的性灵与行为选择是极其复杂的,是随机的、即兴的,不确定的,因此科学只能在自己的模型中自娱自乐,脱离人的现实生活。科学主义将具体事物还原为公式定理,严重脱离了真实的人类生活:“知识不可能达到自我的这种不可划归的'活动成分’。这是能够被感知、感觉与现实的对象,但不是科学所能研究的对象。也就是说,科学达不到这种自然的原初力量。如果科学、逻辑与语言能够在某些某种方式捕捉到这种力量,就不会存在某些自由来进行创造性活动。浪漫主义断言,万物都进入一种严格的决定论的框架中。那种依赖于无法言说的直觉的感觉,对于浪漫主义者来说,是艺术的源泉,并最终是所有宗教感情的源泉。上帝不是几何学家,而是一位无法预言的诗人。[2]

                                                  

图片

人工智能或者科学理性有雄心壮志,哲学反思却使理性陷入困惑,这困惑属于浪漫主义因素。人类理性突然使自己陷入到黑暗和矛盾之中。这迫使我们重新思考18世纪的启蒙,那时的启蒙和哲学一道,捍卫科学的确定性,而20世纪以来,这种确定性遭受广泛质疑,这就进入了后现代哲学,或者说,进入“后哲学”。从前的哲学只是从理性定义人,后哲学则从直觉与性灵出发描述人。与此相应,我们认为人工智能时代将使人类进入后人类时代,它不是模拟语言的时代,而是性灵的时代。性灵时代的思维模式不是语言的,而是图像的、幻想的、虚构的,而电子游戏就是我们时代的一个象征。

如果说传统哲学是理性的,那么后现代哲学是感性的,具有浪漫主义的一切因素,用感性征服理性。这是科学与人文大战的焦点。卢梭、康德、叔本华与尼采,都认为生活需要某些幻想,消除幻想因素将导致冰冷的理性与无趣,消解实证主义的解释。想象、直觉、隐喻,这些都是不可能被理性征服的浪漫因素。

浪漫主义试图回到语言与数学的根源,也就是虚构与幻想,与康德同时代的英国功利主义者边沁也承认这一点:“对于边沁来说,虚构在每一种语言中,为了叙述的目的,是必须在语言中表达的东西。”他继续说:'我知道幻想是不真实的,但我不得不认为它们仿佛是存在的。’”[3]换句话说,正是语言中隐含的非语言因素、幻想因素创造了语言,从而实现了从不可能到可能的跨越。有趣的是,人们一方面认为自己诉诸于某种实在,另一方面在诉诸实在的过程中,掺杂进不可缺少的幻想。显而易见,数学符号中到处都是这样的虚构。那么,无论语言还是数学符号的操作,都受到连续性的心灵活动的支配,而不是空无内容的句法形式与逻辑演算过程。心灵是多出语言的因素,是创造语言的。

也许ChatGPT就属于“盲目的思想”即没有思想,它在“我带着狗出去散步”和“我带着香蕉出去散步”中,选择“狗”而不是“香蕉”,只是由于它收集了太多的语言用法,知道当人们说“散步”的时候更容易提到“狗”,而不是“香蕉”。这属于空洞符号串的收集与计算,是机械的自动方法的结果,它假装了这种预定的和谐,它不是自我意识的结果。于是我们说,人工智能消除了幻觉。人工智能体现了人类创造真理的自由,是被人类制造的,但是人工智能本身,却不能等同于这种自由。

自由是超越语言的,因此自由拒绝被定义,自由总是与意愿、选择、心灵的行为站在一起。自由是高于理性的,所谓普遍性、确定性、自明性,都来自非理性的虚构。无论语言还是逻辑,都是从已经实现了从非理性到理性的跳跃开始的。根据索绪尔《普通语言学》,词语能指与所指的对应关系,已经实现了从任意性到约定性的过渡。数学中的“0”和负数,也来自任性的理性虚构。浪漫主义者的质疑在于:从非理性到理性的跳跃并不是天然合理的,真正有趣的问题在于:这个跳跃本身,到底是如何发生的?这跳跃具有任意性,它不可能被唯一正确性所控制,它不可能被先验的语言框架控制,不可能被任何现成的知识所控制。

于是,这跳跃就具有如下的复杂性:一方面它导致了语言、数学、逻辑,另方面它又解释了艺术的来源、浪漫主义的来源。这两方面结合起来,就出现了在逻辑与数学领域本身的一种奇特现象,即逻辑与数学中的直觉主义与浪漫主义是不期而遇的,它们都赞同语言是一种连续的创造性活动。直觉与浪漫的真谛在于,它们永远都具有比现成的东西更多的东西,这里的“更多”,就是人性的因素,它也揭示了为什么笔者认为人工智能与人类是相互超越的关系。人在科学技术面前如此多余的后果,却是比理性的工具人更像是人。

比人更像是人的人,指每个人心灵的差异:指个体的人、独一无二性、切己性、个体性,而一旦被归纳出关于人的一般情况,就会导致某种失真、疏远、异化。人工智能所模拟的,正是人的一般性,它假设了凡是人都应该会怎样,所以是“带着狗去散步,而不是带着香蕉。”这是由于人工智能所模拟的是逻辑,如上所述,逻辑归纳必然会选择“狗”而不是“香蕉”。人工智能忽略了这样一点:人带着什么去散步,其实是不确定的,是无穷无尽的,而只有这样的情形,才导致浪漫的诗意,它表明人的可能性不可穷尽,具有比眼睛所看见的内容更多的内容。重要的不仅在于外感官向陌生者开放,更在于心灵朝向异域。

人体不是解剖学的应用,不可以将一个活生生的人还原为一具骷髅。同样,也不可以将数学与语言,还原为逻辑与语法,因为数学的真谛在于比数学更多的东西,语言的真谛在于比语言更多的东西。如果将数学和语言还原为逻辑与语法,那么它们的主要工作就是“解码”与程序,这种重复性的工作忽视了比其自身更多的富有人性的东西。

人生之所以值得,不在于活得是正确的,或拥有很多知识,而在于活得是有趣的心灵触动。苏格拉底所谓“认识你自己”应该修改为“我是我自己的深渊”,即我不可能认识我自己,这不会导致悲观,反而导致有趣的期待与永不绝望,因为“深渊”的说法,指的是我永远都处于活生生的、自由的、连续的创造活动之中,它永远都不局限于语言之内。“深渊”具有不可表达性,它具有诗意,进而是浪漫的,因为“浪漫主义基本上考虑的是不可表达的东西。”[4] 对于不可表达的东西,人类使用活动的图像加以显露,例如表情、一个手势、沉默不语——这些情形,如果用语言,得是象形与表意的语言,因此汉字天生具有诗意,也就是言不尽意的隐喻性。在这个意义上,诗歌是语言中的“非语言”。对于逻辑语言而言,汉语是不完备的语言。对比拼音文字而言,这既是汉语的缺憾也是汉语的优势。

浪漫其实是不能“主义”的,因为“主义”强加给浪漫一个停滞的形式。于是我们说“浪漫”就相当于艺术中“达达主义”的“达达”,表达了不能表达的意味。萨特曾经这样说自己:“我构造的每一个句子从我自身渗漏出去,我的话还只是在我的嘴中的时候,它们就已经被歪曲了。”[5]每个人都可以这样说自己:我内心里有一个能量的怪兽,某一种情绪一旦进入我心里就不走了,随时随地都可能爆发,这是真的,它是比文明礼貌更多的东西。越是礼貌的套话表明关系越疏远,越是抓不住的情感变化,反而越是真实。从浪漫的角度看,“停滞的形式”是死的东西,柏格森也是这么看的。在这个意义上,可以说人工智能是死的东西。

但是,笔者并不支持这样的极端观点,不支持任何事物都是任意的随机的,而是说有某些东西超出理性之外,不能用语言和逻辑充分把握。尤其在人工智能时代,它将牛顿的自然哲学推向极端,因为牛顿说“大自然是由数学语言写成的”,而后现代哲学对此表示怀疑,认为真理不能限制在形式化的语言系统内部,哥德尔从数学逻辑出发却导致了直觉的真理,他认为有不可能被证明的真理。

于是,当海德格尔说“语言是存在的家,人就居住在这个家中”,他说的不对。当语言代替了人的生活方式,并且在人工智能中得到证明的时候,我们忘记了人的生存是不需要证明的,错误的生存、没有语言的生存,也是生存。这里的关键词不是语言,而是意志。语言并非传达意志的唯一途径,喊叫、音乐、舞蹈、影像、表情,都可以传达意志,而且更加原始与真实,因为他们与人的身体和感官有密切关系,相比之下,语言是普遍的、形式化的抽象载体,因此语言是与人疏远的异化现象,是一种社会制度,它远离了自我。就像浪漫主义者声称:语言无法接近我。任何个人的行为都不可能被一个法则所决定,因为人的行为是不确定的。因此,语言没有魔力,活生生的人才具有魔力。

当代西方哲学重视语言,它批评康德不讨论语言,而是用概念取代了语言。但是后现代哲学既批评语言哲学,也批评康德哲学,因为语言、概念,都是符号,在出发点上,就用符号取代了人。它忽视了从一开始,存在的不是符号,而是人的现实行为。语言符号的能指和所指都是空的,而现实的人是有内容的。

计算机具有强大的计算能力和超人的记忆力,但是它果真能够取代人的心灵吗?不能,因为人的心灵不能被彻底模式化,因为心灵是自由任性的,而模式却是从约定出发的,也就是从符号出发。葬礼上的黑纱意味着悲痛,黑纱相当于约定好了的象征符号,而不再是黑本身,于是我们便忘记了黑色带给我们的感官刺激。在葬礼上走神溜号,痴迷于黑色带给我们的感官刺激,这被认为是不道德的。换句话说,葬礼上的黑色已经被模式化了,计算机中的模式化,只不过更抽象、更复杂而已。当我们认为已经模式化的计算机和程序化的生活可以取代人的真实生活的时候,我们就会忘记它其实是某种模拟、某种伪装、某种约定,而忘记了人会厌倦与遗忘,忘记了人的本能。这就是卢梭早就提醒人类的危险异化现象。计算机的记忆能力远超人类,但人会遗忘与厌倦的本能,人会犯错误,人具有野蛮的意志力,人可以对没有意思的事情说“暂停,我不玩了”。所有这些,使得人类超越了计算机,使人类不可能在符号面前安乐死,因为可计算性和语言符号一样,都是有界限的,这样的情形也是人与计算机相互超越。

                                                 四

人工智能对于人类的威胁已经从潜在变成了现实,坐地铁人人低头看智能手机与人人看书读报,属于不同时代。现在可以毫不夸张地说,我们在手机这个媒介上生活,在获得方便的同时又被手机所奴役,这就像人们躲进婚姻以逃避自由的矛盾心理,它掩盖了人们既恨又爱那些奴役我们的东西。

以上所述,使得人与科学的对立成为现实,这使我们由衷佩服卢梭的惊人预见能力,他在《论科学与艺术》中,就曾经警告科学将给人类带来的危机,而胡塞尔晚年的《欧洲科学的危机与先验现象学》,也提出了同样的警告,这使得我们以下的讨论具有现实意义。

形式、程序、约定,已经充当了意识形态的角色,它们奴役我们,因而可以说它们剥夺了人的自由。它们并不是真理,正像我们以上已经指出的“哥德尔不完备定理”——真理与证明是两码事,数学与逻辑证明都只是相当于演算,而它们有赖于直觉或者自由想象活动。如果我们觉得哥德尔的不完备定理过于困难,那么德里达式的以下判断与哥德尔不谋而合:“你不能证明某些事情是不随时间变化的,除非你历经所有的时间观察到这一点。同样地,你也不能证明任何事物一直是必然变化的,除非你能知道所有事情。”[6]也就是说,任何统一的、普遍的判断都是不完备的,之所以不完备,在于普遍的形式判断中一定会包含自相矛盾,从而不可能是自洽的。

同样的批评也可以针对语言学,因为语言也是一种已经存在的形式系统,就像是约定好了的社会制度。语言自身无法回答究竟是什么把词语维系在一起,又是什么使得语言不断发展变化?答案应该来自使用语言的人所具有的随机性,人们在某个瞬间突发奇想,认为不仅人和动物有腿,没有生命的椅子也有腿,于是“椅子腿”这个新词组就诞生了。换句话说,人不能在语言中消失,因为是人创造了语言,而不是语言自己创造语言。是写作的人偶然决定了词语的组合,决定一句话在哪里结束和重新开始,它们是不连续的。

罗伯-格里耶、列维-斯特劳斯、福柯,分别将语言学应用到文学、人类学、社会生活,他们共同的缺憾都在于忽略了人。他们不研究实际的人而是研究人在语言中的表现,假装这就是有关人的所有东西,这种语言的回归放弃了浪漫的因素,为语言牺牲了浪漫,而语言不能把握人性。

语言学的立场与人工智能是一致的,两者都不需要指出是某个人在思考。人工智能并没有主体,而语法中的所谓“主语”也不是某个人,个人是多余的累赘。

笔者赞同德里达的观点,因为他反对将现有的语言形式当成思想的起源,他这样写道:“我们还必须警惕形式主义和数学主义的'幼稚’方面,我们不要忘记,形式主义和数学主义在形而上学上的一个次要功能,是完成和确证了理性中心的神学,而它们本来是可以反驳的。”[7] 这里的“中心”,指传统哲学中的理性,而我们以上所批评的语言与逻辑中的形式主义,包括人工智能,都是以理性作为中心的。换句话说,以“逻各斯”作为中心。但是,这个所谓“中心”只是来自我们以上已经说过的约定或者假设,它假设了一个在实际行为中不可能真正起作用的“中心”。人类的实际活动就像是不同的身心游戏活动,这也是人类活动从外部对现成语言的解构,对于同一性逻辑的解构。所谓“中心”的思想,已经对不可还原的非逻辑因素,实施了不合理的还原,而将语言与逻辑,视为思想的出发点,这并没有返回语言的初始时刻,而如上所述,这个初始时刻是“没有语言”的,它们更像是实际行为活动,是超出逻辑的。在解构同一性或统一性时,德里达认为实际上语言不可能真正囚禁我们。由于人类活动的存在,我们实际关注的并不是语言自身,而是语言的他者,于是德里达用他所谓“延异”解放被囚禁的他者,“延异”来自自由想象活动,而不只是语言的活动。因为“延异”既不是一个现成的词语,也不是概念,而像是我们以上所谓思想的“深渊”。

                                                 

传统西方哲学以“逻各斯”的理性为中心,它的近代形式,表现为概念思维,在20世纪发生了语言学的转向,语言与思想被认为是同一的,当代人工智能就是这种倾向的集中表现。质言之,理性战胜了感性。但是,质疑的声音一向存在,甚至可以说,目前正在热议的ChatGPT”话题,从社会生活领域,使得感性与理性之争,更加白热化了,它不再仅仅局限于学院之内,而关切到人类生活方式的转变。

我们的结论是,从表面看,似乎工具理性正在主宰人类生活,但事实并非如此,因为当代科学技术的最新应用,并不是理性战胜感性的证明,恰恰相反,由于这些新科技是依靠广义上的图像媒介传播的,我们实际上已经进入了图像时代,图像转向已经取代了语言转向。语言不再是万能的,语言传达意义的作用日渐式微。越来越明显的事实是,在我们的日常生活中一个引人注目的现象就是:图像没有利用,或者只是较少地利用语言,却传达出意义,这些意义具有强烈的画面感,它们是感性的、直觉的。“ChatGPT”的出现,无论它多么新颖,都掩盖不了它只是语言模式的模拟手段。

如果说“ChatGPT”具有颠覆性意义,那么它首先威胁的并不是人类的感性活动,而恰恰是传统理性的传播与交流方式,因为显而易见,它是电脑和智能手机屏幕上的语言文字,它在不远的将来,将使报纸杂志书籍迅速走向衰落,它使得记忆知识成为多余,柏拉图所谓“知识就是回忆”已经成为完全过时的人类精神遗产,人类创造的人工智能反过来正在吞噬人类自身的智能。如果记忆知识的时间、学习的时间已经被大量节省出来,如果人类的智能由于严重依赖人工智能而显得无所事事,那么人类的生活方式将变成怎样的呢?一个可能的情景就是:一方面人们工作时快乐而单调地使用人工智能,另方面有更多的空闲时间过着感性的生活,这种情形,就是所谓“后人类时代”。这里所谓“后”,指的是告别人类传统生活方式,其中发生了根本性的断裂。

图片

我们可以这样展望后人类时代,人们享受着感官世界的幸福,由于记忆与知识已经交由人工智能去处理,直觉与灵感就将成为人类精神生活最后的栖息地,它也是物质的,因为它返回原初给予的、丰富多彩的生活世界。人类的创造活动本身出于享受生活本身的动机,而功利性的目的已经不再是人类的关键追求。

后人类时代告别了人类中心论,即所谓人是万物的尺度,是存在着的事物存在的尺度,是不存在的事物不存在的尺度。 人已经不是启蒙时代的神人,不必再有让地球仅仅服务于人类需要从而改变世界的野心,也不是尼采式的超越“末人”的超人,生活不必向以往那样按照某种因果必然性,追求某种一成不变的目的,归纳出某种中心思想,成为活得规范或者活得正确的人,因为就规范与正确而论,智能机器人已经在做,而且比人类做得更好。

人类将超越机器人时代,这里所谓机器人,不是指狭意上的智能机器人,而是指传统启蒙时代所追求的科学确定性,恰恰就是将人变成机器,18世纪的哲学家拉美特利曾经在肯定的意义上提出“人是机器”。机器只是机械地遵循某些正确指令生活,而后人类既告别“人是机器”,也告别智能机器。后人类时代重返人类原始本能,强调亲自性,亲身体验,而不再只是依赖人工智能或五官四肢的延伸。后人类时代重新享受人类的自主本能,它是热情奔放的,相互友爱的自然感情与自然生活。

后人类时代“告别遵循因果必然性或目标始终如一”式的机械生活模式,这意味着告别传统的“等价交换”(货币与商品之间、罪与罚之间、爱与被爱之间等等)的心理习惯,人类将逐渐接受不对称性的生活,承认原始本能的差别。所谓不对称,意味着消解古典的对立,不再坚持非此即彼的思维模式,生活不再遵循算计或者计算。政治不再截然区分敌友、死刑的废除意味着消解了罪与罚的对立统一关系。黑格尔描述的主奴关系将不复存在,因为每个人都是自己的主人,从而没有任何人是他人的仆人。随着结婚率的大幅下降和离婚率的惊人上升,传统家庭模式将面临极大挑战,随之而来的,就是两性之间专属的传统观念趋于瓦解,羡慕嫉妒恨的情绪极大减弱,人类将更加追求感官快乐。

ChatGPT显然有能力写论文,作者只需要列出题目和比较详细的章节题目,检查它们之间的逻辑关联。知识性的问题越是详细,智能机器越是能将论文写得更好。即使目前它的细节操作还有某些不完善,但是不消几年,可以预见它将趋于完善。

以上,对于文理科学生和学者,以及现有教育模式,都是严峻挑战,以文科论文最为严重,因为这类论文大都可以归结为对于以往知识与观点的归纳与总结,属于客观知识,所谓的作者再加工过程,与智能机器的“知识洗涤”过程,是差不多的,更为严重的在于,仅从这方面而论,智能机器比人类做得更出色。

但是,与人类相比,智能机器最大的弱点,在于它完全没有主观意识,因为无论它对于知识的归纳得多么正确,其实它根本就不知道自己在做什么,对于所做的工作没有感情,它拒绝偶然性,拒绝面对已有的知识走神溜号。它创作的所谓小说诗歌都是模仿出来的,即使能模仿某种风格,也是人类曾经有过的某种风格,而不会创造出某种不曾有过的新风格,在这个意义上,智能机器仍旧只局限于一般情况(即使表面上它模仿了某种个性)。

随着智能机器人能力越来越强大,可以肯定学生和学者会依赖它写出(按照时下的学术规范)更好的论文,但作者自身的思考能力不仅没有提高,反而降低了。可以预期这种风气会蔓延开来,这会倒逼学术界重新审视学术文章的质量评定办法。

也就是说,作者得提出智能机器人无法达到的思想,它来自主观意志,意愿,自由选择,直觉能力,即兴灵感的连接,也就是名符其实的原创能力。

如果学生和学者延续使用归纳他人成果的方法写论文,将有可能在未来的学术竞争中被淘汰,而剩余的是少数确实有原创能力(包括原创语言的写作能力)的才华横溢的思考者,他们不可以只局限于提出一般性的问题,而要显示出创造差异,尤其是创造精神风格之能力,以哲学领域为例,他们将是那些开创思想或者思潮流派之先的杰出思想家。

由于人具有主观能动性、选择的自由、选择过程中的任意性,就像不同的单子任意而凌乱地在时空中运行,其复杂程度,远比数学逻辑和自然科学更为复杂。人的行为是无法被完全预测的,任何一种模拟都无法贴近人内心的真实,因为模拟是人创造出来的。因此所谓“人的现实生活可能来自计算机模拟”的说法,恰恰是将真实的顺序弄颠倒了,因为只有人知道模拟是怎么回事,因为人具有跳出程序系统反观自身的能力,具有比现成的想法更多的想法的能力。人的复杂程度不是数量上的复杂,不是大数据库上的复杂,而是心理行为的复杂,是质量上的复杂。质量上的更多意味着更多的意味(差异),这就有力地驳斥了各种还原论,即把复杂因素还原为不可再分的基本要素、基本规律、基本形式,就好像能将人类复杂的心理与生活还原为数学逻辑公式与程序,这就是人工智能的运行原理,它是还原论的,它创建各种模式,它只处理一般情况。

与启蒙思想不同,后人类时代并不来自人的自主设计,而来自人工智能时代给人类带来的生活状况,它以崭新的方式回归感性生活。

[1](加)弗拉第米尔 · 塔西奇著,蔡仲戴建平译《后现代数学的数学根源》,复旦大学出版社,2013,第21

[2]同上书,第21页。

[3]同上,第36页。

[4]同上,第48页。

[5]转引自同上书,第51页。

[6]同上书,第132页。

[7] Jacqes Derrida , Position , Chicago ,University of Chicago Press ,1981 , p .35 .

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多