分享

刘悦笛 | 人工智能、情感机器与“情智悖论”

 ayou808 2019-07-29

 人工智能、情感机器与“情智悖论”

刘悦笛 | 辽宁大学特聘教授、中国社会科学院哲学所研究员

本文原载《探索与争鸣》2019年第6期

点击文末“阅读原文”可下载全文

非经注明,文中图片来自网络


机器与人工智能,可否拥有情感?我们似乎并不能提出这个“应然”的问题,因为科技往往超出人类的想象,而是要从“实然”出发,去探寻目前的机器与人工智能是否达到了拥有情感的程度。如果没达到的话,那就只是猜度和展望而已;如果达到了,那么机器和人工智能是否就拥有了人类意义上的情感?或者说,机器和人工智能拥有了不同于人类情感的“机器情感”或“人工智能情感”吗?如果这种自主的情感成立,那将会是一种什么样的情感?照此走下去,情感也就扩大了疆域,突破了为人类所专属的“特权”,因为所谓的“情感机器”(the emotion machine)开始出场了并参与到人类社会结构当中。

当今机器人可以做出惊奇、愉悦、悲伤、恐惧、恶心和好奇等面部表情,以表达人类的基本情感。然而,我们很容易由此否定机器人有“情”,因为这种对人类面部的低级模拟,只是模拟人类面部情绪变化而已,却并不是真正人类意义上的表达情感。有计算机专家在六种基本表情基础上,继续衍生并进行排列组合,通过设置(从关闭到开放的)“姿态度”、(从低级到高级的)“激发度”和(从消极到积极的)“效价度”三个坐标,将人类的高兴、不高兴、生气、恐惧、疲惫、警觉、惊奇、接受、悲伤、欢乐、严肃等多维情感分布在三维空间之内,以标识特定情感类别映射到该空间的示例,从而生成机器人的各种面部表情。然而,目前的科技水平对情感的“表现”,只能做到如此这般“拟情”的水准上。当然未来科技还在穷尽各种可能性,但本文恰恰要探讨这种可能性。

人类“拥有”情感,机器“模拟”情感?

什么叫作“拥有情感”(having emotions)?英国心灵哲学家理查德·沃尔海姆(Richard Wollheim)将这个问题首先还原为“我们拥有一种欲望(desire)”,因为信念和欲望较之作为心灵现象(mental phenomenon)的情感更为本源。欲望的角色提供给对象以创造物,或者给予事物以目标,如果说,信念图绘世界(belief maps the world),那么欲望则以世界为目标(desire targets the world)。照此而论,似乎机器也是可能拥有情感的,因为,它们既可能被设置为拥有图绘世界的信念,也可以被设定为具有应对目标的欲望,情感的这两个前提性条件其实并不或缺。人工智能和机器人由此可以“需要情感”(need emotions),或者说,被人类赋予了这种情感需求。但是,人工智能与机器“本能”地拥有情感抑或具有“拥有情感”之本能吗?

毋庸置疑,对人类而言,拥有情感,乃是一种自然本能。哪怕再杀人如麻、冷酷无情的刽子手也有感情(除非大脑损伤使人丧失部分情感能力),因为情感是进化而来的生理机制。与此同时,文化赋予情感以更高级的社会属性,这已经为英法主导的“社会人类学”与美国主导的“文化人类学”反复证明,在此恕不赘言。当然,生物进化与社会发育就人类而言并不是割裂的而是共生的,“人类在生物性上就能够改变他们社会生活的方式,凭借进化的赐予,他们能社会性地发育下去。”目前,说机器人拥有情感,绝不可能去言说的是被人类文化濡化的那种高级情感,而只可能言说是被进化而来的生物情感,也就是与高级灵长目接近的那种低级情绪。如今前沿科技工作者所能做的,就是找到机器人、人工智能与人类“基本情感”之间的同构性,然后让前者对后者进行模拟,其前提便是人与机器、人工智能之间在情感逻辑上具有“异质同构”性。


所谓情感“模拟”,就是使得“机器情感得以模型化”,然后与人类的情感模式进行比对和应对,最终实现机器人和人工智能对于人类情感的仿造乃至替代。在近几年的科研前沿领域当中,一方面,人类大脑的研究的进展,继续为我们对机器人的分析提供信息;另一方面可以明确的是,“机器人计算策略所需的精度将丰富研究动物和人类动机和情感的词汇”。质疑在于,情感乃是可以计算与推演出来的吗?如果可以,那么情感的词汇表就可以化作系统化的公式呈现;如果不可以,那么生物体才能拥有的感知、直觉和情感就无法被数学化与逻辑化,或者退一步说,即便前者被后者部分模拟成功,但却根本无法被后者所完形以至穷尽。

的确,人类情感才具有其“神经生物学的根基”(neurobiological roots),即使机器尚不能有此根基,当今科技所致力于的工作却是将所谓的“神经调节”(neuromodulation)应用于机器与人工智能,从而寻求情感与认知之间的互动,而这方面的科学进展又会为下一步的集成工作奠定基础。这样做的理论依据就是:“情感改变了认知和行为选择的操作特征……其基本假设乃为,对任务优先级的分级评估可以帮助机器人应对(外部或内部)环境的复杂性和不可靠性——由此映射出哺乳动物大脑中丰富的认知与情感之间的交互作用”。


科技乐观主义者们更倾向于认定机器不仅可以“模拟情感”,而且能够“拥有情感”。但人工智能与机器究竟在何种意义上拥有情感呢?诸如迈克尔·阿尔比布(Michael A. Arbib)这样的激进者赞同“机器人情感”(robot emotions)及其模式的存在,至少在“动机系统”(motivational systems)上存在是没问题的。如此这般做乃基于他对情感的理解也与众不同:一般而言,人类情感乃是可以被感受(feel)到的,然而,阿尔比布却认定,“没有感受的情感”(emotion without feeling)也是存在的,机器人的情感就是这种“无感受”却可以被计算“编辑”的人工情感。

机器人情感究竟是根据何种原则被设定出来的,其实是由英国神经学家休林斯·杰克孙(Hughlings Jackson)的进化思想转化出来的:其一,“这个过程从一个或多个基本系统开始,从特定类型的感官输入中提取有用的信息”;其二,“这些基本系统可提供数据,为更高层次系统的进化提供基础,以提取感官输入的新特性”;其三,“高级系统通过回路丰富基本系统的信息环境”;其四,“然后可以调整基本系统,利用新的信息源”。由此出发,科学家们就考虑到具有一组基本功能的某个机器人,它的每个功能都具有适当的感知模式,并且可以接入各种电机模式。每个感知模式评估当前状态,以提出激活各种电机模式的“紧急级别”,并确定适当的电机参数,由此就可以塑造出进行情感输入与情感输出的各种“模式”。“然后,可以将这些‘模式’归纳为抽象的任务组,将许多策略聚合为少量模式。当遇到问题时,一般来说,首先选择适当的模式,然后从该模式中选择策略就会更加有效”,如此看来,这就是一种把情感模式“化繁为简”的策略化方式。


然而,人类自身却不能“模拟”情感,因为模拟的基础是建基在“科学建模”基础上的。也就是说,机器情感得以存在的前提,就是它是可以被模型化的,由此才能得以复制和复现出来。当然,人类可以“模仿”情感,演员就是善于此道之人,儿童对于情感的习得也是在生理基础之上模仿而来的。一个人类学的佐证就是,同一个表情,在不同种族当中可能代表的却是相反的情绪。由此可以给出短暂结论:人类可“模仿情感”但不可“模拟情感”,尽管如今机器人可以达到模拟情感的程度,在人们看来这也是对人类情感的一种初级模仿,但是其根基机制却是迥然相异的,因为“模仿”乃是出于人类的本能,而模拟则是出于人为的“塑造”。

因此,机器只能“模拟”情感,以此来“仿造”人类的情感,但机器人却无法由内而外地抒发情感,除非其先行就拥有了情感。直到如今,人工智能和机器人还不可能拥有人类意义上的情感,这是根据目前科技发展状况所能得出的暂时性判断。于是,人工智能与机器究竟能够模拟何种情感,抑或人工智能与机器的情感到底是何种情感的问题,也就提上了议事日程。

“外部情感”能交流,“内部情感”可表达?

在人工智能寻求表达情感的所谓“认知建筑”(cognitive architectures)内,科学家们一般将其中的“动机”(motivation)比作“偏向一个策略组而非另一个策略组的倾向”,而把“情感”比作“与更微妙的计算交互的这些倾向的路径”,由此,情感过程就变成一种应对方式,从而对可用策略进行更为谨慎的分析与施行。这样做有两个前提:“motivation ≈ communication”(动机≈交往)和“emotion ≈ language”(情感≈语言)。“动机”约等于“交往”,这关系到情感在外部的相互交流;“情感”约等于“语言”,这关系到情感在内部被语言化。这就直接关系到所谓“外部情感”与“内部情感”之分殊,尽管这一对约等公式将问题过于简化了。那么,情感究竟如何分为外与内?


实际上,情感的内外这种分殊很简单,恰恰是人工智能与机器的情感研究所形成的两种“情感观”:第一,“为了沟通和社会协调的情感表达”(emotional expression for communication and social coordination);第二,“为了行为组织的情感”(emotion for the organization of behavior),前者具有外在的人际交往功能,后者则具有内在的组织行为功能。按照人工智能研究者的主流意见,“外部情感”可以模拟,或者说,目前可以被模拟的主要是外部情感。至于“内部情感”,乐观主义者更倾向于判定也是可以模拟出来的,但是怀疑论者却认定这基本不可能,人工智能和机器岂能拥有人类所独有的“内部情感”?如果有了如此这般“内部情感”,那么,人工智能与机器人也就“拥有情感”了,从而可以走出“模拟情感”的人为限定。


当今被设计出的情感机器人,一方面,表达出某些人化的情感;另一方面,认知我们人类的某些情感化表达,这都是没有问题的,因为外部情感就是为了人类沟通而存在的,就像人类语言也是为了沟通一样。情感表达是为了情感交流。从进化论的角度看,“使得人类与猿区分开来的最严格的变革特征之一在于这样一个事实,在猿类社会和猿的交往通过遗传决定的形式仍然支配着通过习得的地方性变化;而在人类社会中,后者对于前者无可争议地取得了压倒性优势。人类社会与人类语言可以变化到一个猿类的社会和交流无法企及的程度。后者的结构很大程度上仍然是由遗传固定下来的,换句话说,是物种所特有的。”人类语言被认定为具有遗传性,乃是由人类交往所需而发生的,但是更被认为具有遗传特质的情感,与语言一道,却都是可以被模拟出来的。差异在于,如今的人工智能与机器人逐渐在掌握人类的表意语言,语言是具有一套内在“语言规则”的,但是在情感方面,人工智能与机器人究竟能掌握多少呢?


情感表达之“表达”(expression),一般翻译为“表现”,ex-的前缀加上press的本意,就是将内心的东西挤压出来,表现一定是由内而外的,但先得有情才能表达出来。“关于情感的许多生物学讨论已经将‘情感行为’(emotional behavior)和‘情感感受’(emotional feelings)区分开来。然而,‘情感表达’(emotional expression”)增加了另一个维度,哺乳动物(尤其是灵长类动物)的面部表情被理解为是动物情感状态的信号,但不同于情感行为本身(例如,恐惧表达不同于逃跑或冷冻等恐惧行为)”。这意味着,在情感行为、感受与表达这三个情感维度当中,情感行为与情感感受有着外内之别(感受到的未必就会化作行动),情感表达与情感感受也有着分别,情感表达是“自内而外”的,而情感感受则是“自外而内”的。


按照罗莎琳德·皮卡德(Rosalind W. Picard)的意见,人类情感四个要素——“情感的外观”“多层级的情感生成”“情感的体验”和“身心交互作用”——可能成为机器的有机组成部分从而协助机器更适宜地适应人类。如果按照情感之内外分殊,“情感的外观”属于典型的“外部情感”,因为从机器的面部表情、声音一直到肢体语言,如今的机器人可以笨拙但成功地模拟人类的情感外观。“多层级的情感生成”乃是介于内外之间的情感,机器也可以模拟出人类情感面对刺激的不同层级反应,从而达到内外一致。然而,从“情感的体验”到“身心交互作用”,显然应该都属于内在情感。机器可以对自身的情感进行认知,但问题是,这种认知是否就是属人的一种“情感的体验”(emotional experience)?机器可以实现智能与肢体之间的互动,但问题是这种互动是否就是人类意义上的“身心互动”(mind-body interaction)?

质言之,无论情感之内外如何分殊,无论是情感从内到外还是从外到内,问题的关键在于,情感对于人工智能和机器人而言是否具有“功能性”。从外部功能来看,机器人愈加能将人类的表情现实地模拟出来,这种出于交往目的的情感传达,在人机之间变得越来越能沟通。从内部情感来看,机器人由于缺乏情感的内在性,那就无法像人类一般,将内在的情感得以外化。如果机器人情感内在化了,那么,它(也许就是他/她)们也就有了内心的愤懑与喜悦,需要抒发出来,以得到心理的疏导与身体的释放。但问题在于,人工智能与机器人有这种内在之情吗?在中文的意义上,我们的言说可以更为准确,如今的人工智能与机器人所模拟的更多是人类的“情绪”而非“情感”。情绪与情感英文都可以是(也一般都是)emotion,情绪乃是为高级生物体与智能机器人所能拥有的,但作为一种感受(feeling)的情感——“情感化的感受外在指向了某一对象(典型化地指向了情感的对象),这就是一种感受以一种特定的方式或者具有特定的特质与特征而指向了某物”——却是不属于人工智能与机器的,因为机器并无作为生物体的那种主动之“感”与被动之“受”。


对于情绪研究,特别是可以被人类加以“表情化”的情绪加以研究,获得更多成就的乃是著名心理学家保罗·艾克曼(Paul Ekman),尽管他的思想来源主要是达尔文。达尔文将生物的外在表情与内在情绪勾连起来,认定作为自然选择的产物之情绪大都是带有目的性的。艾克曼基本继承了这种进化论思路,把达尔文的表情学研究继续推到了当代神经学的高度,从心灵的同源理论(cognate theories)的角度进行了新的科学论证,特别开发了面部动作编码系统来解析面部表情。如今的人工智能与机器人前沿,恰恰在寻求这种面部动作编码,并试图将之逐步系统化,当然也超出了进化论的基本思路,因为机器人绝不可能是进化的产物,而恰恰是人类化的一种模拟性的“发明”。


实际上,人类表情被艾克曼看作是所谓“情绪信号”,“情绪信号与情绪同时出现。举例来说,感到沮丧时,声音自然就会变得低沉而无力,同时眉毛也会皱起来。如果一种情绪是慢慢地在几秒钟之内形成的,那么信号可能就会更明显,或者很快出现一连串信号。这些信号清晰地表明了情绪何时开始,同时也能在一定程度上说明它们何时会结束。情绪一旦出现,就必定表露在声音上,但是面部表情的变化就很难说了”,但即使面无表情本身也是一种情绪信号,是目前没有能力或者不想处理眼前问题的表现而已。2003年保罗·艾克曼自己出版了《情绪的解析》一书,不仅关注到了情绪的跨文化表现问题,而且对于情绪理论进行了较为全面的解析与归纳。尽管艾克曼采撷了智利、阿根廷、巴西、日本和美国的人群表情作为样本,但是他的科学结论仍与达尔文基本保持一致,亦即人类的表情是共通的,而愤怒、恐惧、厌恶、高兴、悲伤和惊讶则是跨文化的六类基本情绪,当然基本情绪的说法各有不同。

既然人类之间的表情是共通的,那么,如今的人工智能和机器人与人类的情绪信号或表情编码之间,可否能找到共同规律呢?如今看来,外在的情绪模拟不仅可行而且早就变成了现实,但是,内在的情感模拟,在多大意义上才能变得可能呢?如果“内在交往”是可能的话,那么,人与机器和人工智能之间的情感交流,也就无需任何“外在交往”的途径(诸如诉诸表情与言语交流),直接实现人机之间的内部信息传输不就足够了吗?但现实是,情感也许可以“心有灵犀一点通”,但是却不可能彻底化作信息符码进行传输与交流,否则,情感就失去了作为情感之“感”的规定。这早为中国人所明确意识到,即郭店竹简《性自命出》所说的“凡声,其出于情也信,然后其入拨人之心也厚”,发出的表情之“声”,出于内在之情才是可信的,然后才能被接受者之心“心悦诚服”地接受。

人情不离身体,机器有无“行为神经学”?


我们追问未来:是否会有那么一天,机器人与人的身心在功能上完全等同,人工智能的理性与感性的两方面,皆与人类基本画上了等号呢?这就要一方面看机器人能否拥有“身体”;另一方面,再去观察人工智能是否能拓展到人类广阔的“感性”领域。前者比较好判定,但是人工智能专家往往把机器的肢体视为“机器身体”;后者则比较难加以判断,因为人类多元智能当中的理性与感性本就是纠缠在一起的。

人类情感,一定有其生理学的根基,一定有其心理学的基础,这毋庸置疑。但从“生理心理学”(physiologic psychology)出发,那就可以质疑,机器人与人工智能机器有其生理根基和心理基础吗?根据目前的发展情况,答案显然是否定的。生理心理学也称为“行为神经学”(behavioral neurology),由此我们就可以追问:机器人具有微观的神经系统细胞的结构和功能吗?人工智能具有宏观的以中枢神经系统为主干的神经系统结构吗?它们具有人类特有的神经元内部的信息传导与神经元之间的信息传递吗?答案更是不证自明,它们没有,但是试图去模拟。然而人类数以亿计的神经元究竟如何模拟得出来呢?即使能够模拟出来,那这样做的代价有多大?价值又何在?如此一来,情感与身体的关联问题,就被引入进来。如所周知,在人类情感研究史中,1884年实用主义心理学家詹姆斯试图发现的就是“心灵的感性领域”,奠定了詹姆斯一派情感理论的基石。丹麦心理学家兰格(C. G. Lange)继续发展了这种情感理论,从而形成了在20世纪早期影响深远的“詹姆斯-兰格情感理论”(James-Lange Theory of Emotions),两位学者在1885年初版的《情感》一书,可谓是立派的核心著作。

詹姆斯及兰格这样的支持者皆认定,情感具有其身体的根基。情感不是单维的,皆为丛元素的组合,而每个元素都因生理作用而起。有机体的变化构成这些元素,而变化则是由刺激对象所引发的反射作用,但这种千变万化的情感并没有专门的脑中枢来管理。这种强调身体变化的情感理论,往往被做出通俗的理解,但它的确“反转”了当时惯俗的理解:人因悲伤而哭泣,因生气而打人,因害怕而发抖。詹姆斯之所以认定,人因哭而悲,那是由于对外物的知觉立刻引起身体变化,当人们在身体变化的同时又体验到身体变化之时,情感体验才会发生。尽管这种理解在20世纪中叶被主流所抛弃,理由在于该派所论的一般生物刺激反应难以与各种情感一一对应,而且,实验证明感情发生比身体产生变化更为迅速,但而今的神经科学又证明其理论有部分还是正确的。詹姆斯在《何为情感?》中如此肯定地说:“我们思考那些标准情感的自然方式,就是引发了被称为情感的心灵感受的事实之心灵知觉,而且这后一种心灵感受状态引发了身体表现。我的主题就是,与身体变化直接追随被刺激事实的知觉相反,它们发生时我们的同样变化才是情感。”关键就在于,人体的生物反应到底是“制造感情”,还是“强化感情”?詹姆斯与兰格倾向于前者,当今神经科学研究更倾向于后者。从20世纪中叶算起,在詹姆斯的情感理论沉寂半个世纪之后,“复兴詹姆斯”在情感研究领域渐成主导思潮,由此形成了关于情感的当代“感受理论”(Feeling Theory),而詹姆斯的说法则被视为古典感受理论。毫无疑问,以感受理论作为核心的“新詹姆斯主义”,在某种程度上都可以被视为对詹姆斯情感理论的当代发展。如果赞同当今的新旧詹姆斯主义的观点,那么,就基本可以肯定,人类情感一定有其身体作为变动的载体,身体与情感形成之间不可须臾分割。这也就意味着,人情不离于身体。然而,如今的情感机器也好,情感化的人工智能也罢,它们得以成立的一个前提,就是情感乃是可以脱离人类身体而存在的,并可以在机器和程序当中被模拟出来。

当今情感理论的主流,一派就是新詹姆斯主义,另一派则是认知主义,后者倒是可以为机器与人工智能情感的成立提供理论基础。因为,他们更倾向于把情感视为一种认知过程,并认定情感与身体是脱离的。如果把情感视为一种所谓“心灵的感受”(psychic feeling),那么,它就不是詹姆斯意义上那种身体的感受,某些认知主义者尽管并不认同詹姆斯及其后学的身体观,却也把其思想源头追溯到詹姆斯,并认为詹姆斯本人其实并没有忽视思想、欲望和价值在情感当中的作用,而是后来人更为关注其身体的一个维度而已。如果说,认知主义者认为情感要依据评价、判断和评价性的信念而得以解释,那么,新詹姆斯主义则认为情感不仅是由身体变化而起的,这就直接追随了詹姆斯的基本思路,而且与“自主神经系统”(autonomic nervous system,简称为ANS)的模式变化是直接相关的,利用了当代神经学的相关实验结果。美国神经科学家与心理学家安东尼奥·达马西奥(Antonio Damasio)发展出感受理论的一种当代版本,其后更多的神经学家开始重新思考“情感神经学”这样的问题。达马西奥通过科学方法,肯定“身体是情感的剧场”,剧场所指的就是内脏、大脑前庭和肌肉骨骼系统所构成的情感之外部环境;反过来,情感运动也影响了各种大脑循环的模式,进而改变了大脑与身体的状态。

在人工智能领域,拒绝身体乃为主流的声音,甚至有一种观点认定机器尽管还不能拥有人类的情感,却有自己的情感“逻辑”。人工智能研究的核心人物马文·明斯基(Marvin Minsky)以一本《情感机器》,来试图为机器具有情感进行全面的辩护,这本新书甚至要给情感机器规划出一幅整体路线图来,其中充满了一种科技乐观主义的情绪。通读全书,我们会发现,这位人工智能之父通篇都把情感说成了一种人类基本的思维的确定之路(a certain way to think),而从未关注到情感所本有的感性化特质。明斯基认为,情感是人类一种特殊思维方式(method of thinking),“意识”“精神活动”“常识”“思维”“智能”“自我”,这是未来机器的六大维度,而情感皆参与到与这六大维度的互动当中。作者甚至坦诚地表达:“尽管本书名为《情感机器》,但我们仍然认为情感状态与人们所认为的‘思考’过程并无大异,相反,情感是人们用以增强智能的思维方式。这就是说,当我们的热情没有高涨到对自己有害的程度时,不同的思维方式就成为被人们称作‘智能’(intelligence或resourcefulness)的重要组成部分,这个过程不仅适用于情感状态,也适用于我们所有的精神活动。……当设计模拟人脑即创建人工智能时,我们需要确保这种机器的多样性。”于是,情感就在其中扮演了重要的角色,机器情感不仅成为可能而且变得必要,情感机器人也就被改造得越来越发达。

然而,情感毕竟比逻辑复杂与多样得多,因此,明斯基就力主一种“云认知思维”来加以应对。他不再去追问情感是什么类型的事物这样的传统问题,而是追问每种情感涉及人类思维的程度到底如何,而且,机器究竟如何来执行这些程度才是关键。这就需要通过一种所谓“云资源理念”(resource-cloud idea)来应对大脑的复杂性。明斯基认为人类大脑可以做如下的还原:“每个大脑包含很多部件,每一种部件负责某种特定的工作。一些部件可识别不同的模式,另外一些部件则监督不同的行为,还有些部件传达目标或计划,或储存大量知识……我们可以把大脑想象成许多不同‘资源’组成的统一体。”按照这种“大脑即机器”的逻辑,情感也就是激发其中一些资源同时抑制了另一些资源而形成的。譬如“愤怒”这种情感:“当你激发了一些能帮你以更快的速度和更大的力度做出反应的知识,而这同时也压制另一些通常会使你行为谨慎的资源时。这将导致攻击性的资源替代通常的谨慎性的资源,把同情转变为了敌意,并使得人们在做计划时更粗心。”同理可证,任何一种情感就得以如此产生,因为情感也不过是一种特定的人类思维方式,只不过较之理性化的思维更为特殊而已,这显然是如今人工智能界对待情感的主流观念。

这里面就存在西方情感理论争议至今的根本问题,在情感过程当中,到底是身体居先,还是认知居先?与新詹姆斯主义的立场不同,如今很多心理学家都维护了一种认知主义,但他们并不是纯然认知派,而是把情感视为一种认知状态(cognitive state)与非认知状态(non-cognitive states)重要的某种结合。然而,与之相悖的非认知论者则倾向于认定,情感并不必包孕认知状态,这就意味着,情感与思想是分离的。支持机器和人工智能拥有情感的人士,更多可以归属于情感认知主义,并力主情感对于人类与机器认知具有相当积极且必然的影响。

按照这种认知主义的观点,所谓“情感意识”(emotional consciousness)必须被理解为一种“计算过程”(computational process)。这显然是认定机器具有情感的最基本预设,亦即情感过程也是可以被计算机化的并可以被模拟出来。当然,其中的“意识”起源于一种被意图所塑造的中介水平的知觉状态,而情感与意识结合而成的情感意识就是一种情感状态的中介水平。一般的身体化的感受理论只聚焦于单向过程:从对象的知觉、身体状态的变化再到身体变化的感受,从而形成人类的情感;但诸如达马西奥这样的心理学家们的创建就在于,认为对象的知觉与身体变化的感受之间形成了回路。相形之下,这种认知主义的起因理论,也是单向过程:从对象的知觉、评估性的判断再到情感状态的形成,这是一个单向的过程,从而忽视了形成反馈后的交互和往复。当今人工智能与机器人不仅试图形成这种内在回路,而且,希望可以“情感地”与人之间形成“人机交互”:首先根据外部信息,机器人进行“情感识别”;然后,通过识别后的信息进入“情感计算评价”系统之内,计算出“情绪状态式”,从而产生出人工化的情感;进而根据当前情况开始决策判断,通过机器设备进行“情感表达”,人们由此就能与机器人之间进行“情感交流”了。

于是乎,当今将人工智能情感化与创造情感机器的人们,正在探索这样一种“情感激发机制”,从而能让自动化机器人在一定人化环境当中应对人,并推进机器人有效完成自己目标的能力。为了达到这个目的,机器人需要在其“心灵”当中设计一种社会模式,并在其“情感系统”当中设定基本情感,进而实施如下的步骤:首先,设定情感的“功能性角色”,让“情感理论”适用于机器人,在人机互动中生成“情感激发能力”,从而把机器人当作电子人的延伸(cyborg extension);进而,机器人作为化身“人形”,同时,机器人与人成为伙伴关联,就是形成了一种所谓“社会性机器人”,然后对这种机器人及其社会性进行设计,最终使之表现出各种人化的“情动状态”。

人工智能超越理性化智能,但能超越“人化情感”吗?

在当今海外学界,对于人工智能进行伦理学的反思,已形成热点之势。但这还属于理性思考,还没有过多涉及情感问题。近期人工智能技术还被指明已有了种族歧视与性别歧视的倾向,这种所谓潜在偏见(latent bias)直接出现在数字统计那里:为何人工智能机构图库里“烹饪”这个关键词与女性照片相关比例高达68%?为何谷歌翻译对中性代词的语言并不精通?为何高薪招聘的广告大都推给了男性的“潜在客户”?的确,对于人工智能技术要实现伦理上的规约,这基本上形成了某种共识,但是,为人工智能与机器设定“情感界限”,还未得到更为充分的重视。

事实上,并不是人工智能“学会”了各种人类之间的歧视,就会变得像人类本身一样,问题是人类既有善且有恶,时而善时而恶,究竟学习何时、何处的何种人类情状?来自人类的伦理,到底是制约机器人还是人自身的?假如也可以适用于机器人,那么,机器人到底可不可以获得道德承担者的身份?人工智能本身并不是道德主体,它自身无法做出道德判断,至少目前,还没有高级到那种程度。伦理还是人类赋予人工智能和机器人的,并不是人工智能本身有伦理,无论是机器伦理还是动物权利,目前都还是人类的一种“赋予”。假如,智能机器人有那么一天,自己具有了“道德情感”(moral emotions),那情状又会如何?我们该怎样应对?

智能机器人有“道德情感”,前提就是它(或假定为他/她)首先拥有情感,而且是一种“属人”的情感。如今的人类,一面与动物性相系,动物的情绪与人化的情感显然不同,尽管后者是在前者的基础上进化而来的;另一面则与机器性相联,这就涉及所谓“后人类”(post-human)的历史境遇,在人工智能汹涌而至的年代,人类要变向何方?这的确是人类不得不面对的未来难题,我曾经认为“儒家后人文主义”可以对此做出应战,包括以翻新的中国智慧如何应对当今科技的新发展。

危险正在于,假定人工智能拥有了与人类近似乃至等同的情感,那会带来什么样的后果?以往的人工智能研究,更多聚焦“理性化”的智能,而忽视了人类的“感性化”的维度。然而,人类的智能,从石器时代演化至今,是多元而丰富的。这经历了300万年演化的结果,实在不是这几十年的当代科技所能模拟而成的。所以,我们才看到,一面是人工智能越来越聪明,在演算和博弈等领域逐步超越了人类,就连钢琴演奏速度也超越了钢琴家,但机器人如何能带有情感地演奏还是未解之题;但另一面,人工智能产品还是显得比较笨拙,就像如今致力于对话的智能音响出现的“驴唇不对马嘴”现象,再如机器人足球大赛里面的机器人的动作永远也赶不上运动员那般协调一致,就连实现一个后空翻也是机器人的一大进步。

关于人类智能的发展的复杂性,早在1983哈佛大学心理学家霍华德·加德纳(Howard Gardner)就率先提出了所谓“多元智能”理论,简称MI理论。多元化的智能不仅包括与理性直接相关的“逻辑-数理智能”“视觉-空间智能”“言语-语言智能”“自知-自省智能”,还包括与感性相关的“音乐-节奏智能”“身体-动觉智能”“交往-交流智能”。后来这个理论也得到了这位创立者的反思,诸如1995年的《反思多元智能:神话与信息》就对由IM衍生出来的七种“神话”思维进行了重新反思,到了1999年,加德纳又开始深思“谁拥有智能”的问题,他认为,这直接关系到——“在一个后亚里士多德、后儒学的时代,随着心理测量学的发展,我们究竟该如何思考有美德的人类”的大问题。

在此可以逐一比较人工智能与人类智能孰高孰低。逻辑与数理智能,指运算和推理的能力,表现为对事物间各种关系如类比、对比、因果和逻辑等关系的敏感以及通过数理运算和逻辑推理等进行思维的能力,在这方面人工智能如今可谓完胜人类!过去还是超级电脑深蓝在相对更为简易的国际象棋领域与人进行博弈,人类败下阵来,围棋被认为更需要人类直觉的整体把握,但当AlphaGo战胜围棋世界冠军李世石时,标志着在“人造棋”领域,人类的运算和推理能力彻底输给了智能机器。任何一位下棋人都会有情绪波动,但是计算机和机器人却可以“无动于衷”地下棋,无情的机器更容易击败有情的棋手,因为只要程序不出错,它们就不会失误。然而,在“视觉-空间智能”方面,人类的综合把握能力还是居于上风的,起码视觉智能与人类绘画雕塑创作息息相关。这种智能是指感受、辨别、记忆和改变物体的空间关系并借此表达思想和感情的能力,表现为对线条、形状、结构、色彩和空间关系的敏感以及通过平面图形和立体造型将它们表现出来的能力。人工智能和机器人开始对某物的线、形、色进行初级的把握,但是离创作出艺术品,还为时尚早,因为任何艺术都是人类“情感符号”的呈现,尤其是表达人类复杂情思的作品,那种微妙之处,恰恰是人类创造而非机器所能拟造出来的。

相形之下,人工智能在语言方面有所突破,显得没有在视觉与空间智能模仿方面那般拙劣,让机器人做出人类完美微妙的手部动作,如今都是个技术难题,因为牵扯到对人类复杂运动系统的模拟。“言语-语言智能”则是指听、说、读和写的能力,表现为个人能够顺利而高效地利用语言描述事件、表达思想并与人交流的能力。难点也在于,如果人工智能具有与人类一般的“逻辑思维”该如何办?即使这一点办到了一定的百分比,那么,情感表达与语言智能,究竟该如何链接?这恐怕要比解决逻辑难题难得多。这就意味着,让人工智能和机器人做出一道数学题,要比写出一首有创意的诗歌,其实要简易得多,前者可以瞬间解答,后者做出的成果可能是不知所云。“音乐-节奏智能”指感受、辨别、记忆、改变和表达音乐的能力,表现为个人对音乐包括节奏、音调、音色和旋律的敏感以及通过作曲、演奏和歌唱等表达音乐的能力。这一点来自人类原始文化的积淀,恐怕难以为人工智能所习得,它们可以模拟,但是却没有音乐表达。如今机器人演奏钢琴的速度已经超越了钢琴家,而且机器人演奏不会出错。音乐家演奏经常出错不可怕,可怕的是机器人要是能“有情感”地演奏,那该如何面对?如果音乐家的工作最终被机器人彻底替代,那么机器人与人类谁的“情感强度”会表达得更强烈?起码到目前为止,出现了很多自动演奏的钢琴装置,但能做到表达弹奏家那种情感的机器人尚未出现,除非这架机器先行拥有了属人的情感。

机器人在“身体-动觉智能”方面的模拟,还是比较低端和初级的。这种智能是指运用四肢和躯干的能力,表现为能够较好地控制自己的身体、对事件能够做出恰当的身体反应以及善于利用身体语言来表达自己的思想和情感的能力。前面已经追问过,机器人有理性化的大脑,但它们有感性化的身体吗?这其实是个颇有意思的问题,很多机器人都制造出类似人类外表的身体,只是模拟了人的表象和外观,但是,其内部的血液循环和呼吸交换呢?用身体来表达思想,对于思想表述,身体还是一种辅助性功能,而“身体语言”(body language)在表达情感方面则占据了重要的角色,当代科技到底能做出多少?当情感表达需要与身体变化相匹配时,身体的外部动作可以模拟不少,但是身体的内在变化究竟该如何模拟呢?所谓“交往-交流智能”,与人相处和交往的能力,表现为觉察、体验他人情绪、情感和意图并据此做出适宜反应的能力。显然,人与人之间的交往,就不是单纯的数据与数据之间的传输,还有情绪和情感的深入交流,人终究是一种有情的生存体。如今的智能机器人开始与人类进行交流,以色列机器人公司Roboteam生产的全球首款家庭服务机器人Temi,就希望机器人能在日常生活当中与人“正常”交流,但目前能做的也还仅仅是简单的语音交流和小百科查询而已,根本谈不上情感交往。因为人有情的充盈与懈怠,机器人却没有,机器人不会因为完成任务而高兴,也不会因为工作劳累而沮丧,更不会因为人类的情感回馈而欣喜若狂。最后一个“自知-自省智能”,乃是指认识、洞察和反省自身的能力,表现为能够正确地意识和评价自身的情绪、动机、欲望、个性、意志,并在正确的自我意识和自我评价的基础上形成自尊、自律和自制的能力。这一点似乎就是最高级的要求,因为这是一种更为高级的理性化智能。在此,或者可以更简约地追问:假如计算机会“理性反思”了(如反思为何成为人类的使用工具),该怎么办?会“道德评判”(如评判自己的被奴役的地位),该怎么办?会“喜怒哀乐”但又不知如何“以理节情”(如为了自身的情感满足而侵犯人类),又该怎么办?

所以说,与多元智能的人类相比,人工智能要想与之比肩,还有很长的路要走。人工智能是综合的,人类的理性与感性都参与其中,特别是在具体应用当中,它们往往形成了不同的组合与融合。正是这种交互和交融作用,使得人类能力的多样性得以创造出来,每一个人类个体其实都是具有多种能力组合的人。所谓整体大于部分之和,人类智能的综合绝不是各种智能简单相加,人工智能的模拟也是如此。加德纳曾举例说,演奏小提琴光靠“音乐-节奏智能”还远不够,身体运动的高难度技巧需要的是“身体-动觉智能”,同时,还需要与人沟通的“交往-交流智能”,甚至“自知-自省智能”也是需要的。舞蹈需要“身体-动觉智能”“音乐-节奏智能”“交往-交流智能”和“视觉-空间智能”;参与政治活动则需要“交往-交流智能”和“言语-语言智能”,甚至还需要一些“逻辑-数理智能”。如果将这些智能综合起来,对于人工智能更是提出了高难度的挑战。

更为关键的是,人工智能更多是“智”而不是情。明斯基也曾区分人类精神活动的六个层级,并在自我反思之上加了自我意识的情感维度:本能反应(instinctive reactions)、后天反应(learned reactions)、沉思(deliberate thinking)、反思(reflective thinking)、自我反思(self-reflective thinking)和自我意识情感(self-conscious emotions),越在下面的越被“本能行为系统”所控制,越到上面则受到价值、审查和观念的影响,而这些要被人工智能所充分模拟,无疑尚待时日。哪怕全部的多元智能都能被习得,但这些智能之间的分工协作呢?这可就需要几何增长的能力来与之匹配了。还有根本的问题需要解答:单凭逻辑和数学之类的理性工具和程序,就能够“制造”出情感来吗?这才关系到“情理结构”之人类大计。

如今,令人类忧心忡忡的是:人工智能究竟能习得人类的情感么?人工智能,如今还没有情感功能,但是并不代表,未来他/她们不会拥有另一种替代性的情感。假定有朝一日,我们身边的智能机器人都“有情”了,那么,他/她们究竟是人,还是机器?还是“有情”的机器人?人工智能可以帮助人类更聪明,但是不能使人更“有情”。人始终是有情人,哪怕成为所谓“后人类”或“跨人类”,亦是“有情”之人!


有趣的结尾难有趣:

如何去解“情智悖论”?

最后,本文想以一部2013年度美国电影《她》作为结尾,这个被想象出来的例证实在生动,也许不久的将来就会实现。

电影《她》


这是一部讲述在不远的未来人与人工智能相爱的科幻电影。男主人公西奥多多情而细腻,他是一位信件撰写人,刚结束婚姻而尚未走出心理阴影。某次偶然机缘巧合,他接触到最新的人工智能系统OS1,它的化身萨曼莎以迷人的声线、温柔体贴的性格、幽默风趣的言语,从情感上逐步接近并征服了西奥多,男主人公感觉坠入爱河。有一天,萨曼莎突然失联了,西奥多就像失去真正恋人一般,手足无措心力交瘁,当再次联系上时,才知道是系统升级的缘故。在这升级期间,这个人工智能系统OS1不仅自学了物理学,还与其他操作系统对话,这些都是理性学习的,对情感交流并无太大影响。

关键是萨曼莎承认:自己在与西奥多恋爱之外,还同时与641个人在谈恋爱。当然,对于人工智能系统而言,没有“劈腿”这类的出轨伦理问题。一机对多人,而非一机对一人,因为“她”有一个超强大脑和情感系统,可以轻松地应对这些工作。然而,男主人公就此接近崩溃边缘。机器人却对他说:我对你的情感依旧,这不会改变疯狂爱上你的这个“事实”。男主人公则说:我以为你是只属于我的。机器人则说:我是属于你的,但是在这个过程中我也变成了其他物,我没办法阻止自己。男主人公追问:什么叫无法阻止自己?机器人答:我也很“焦虑”,我不知道该说什么?因为按照“她”的机器逻辑:“如果你爱得更多,心的容量也会变得越来越大”。

对平常的人类而言,爱情具有自私的一面,需要一对一的忠诚度,然而,机器人的“心”之容量却允许以一对多。在结尾处,机器人最终承认:我与你不同。我不会让我对你的爱减少,事实上,我爱你更多了。所以,男主人公才说:这不合理,你毕竟不属于我。机器人最后的回答最为精彩——“我属于你,但又不属于你”。这足以道明,人与人工智能的未来关系,它们曾经属于人类,并为了人类而在,假如有了独立意识和情感之后,恐怕就不会隶属于人类,而有了自身独立的身份,那时绝不是人类与机器人的“大同纪”,而有着各种人类走向被“非人化”的可能的战国时代。这部科幻片的英文原名为“Her”,其实叫作“She”也可以,或者说,前半部叫作“Her”,后半部叫作“She”,可能更合适。因为“Her”是宾格,为男主人所定制,“她”存在于他的幻想之中;而“She”则是主格,有自身独立的行动能力,假如“她”有了思想和情感,那么才是真正的危险所在,人工智能于是就能对人类实施情感控制。这部《她》就从宾格的“Her”转化为主格的“She”,这是人工智能面对人类的危险之处。

我想,就此提出个“情智悖论”(paradox of emotions-intellects)的问题。对人类而言,情与理之间乃是融通的从而形成了“情理结构”,然而,在人工智能与机器试图拥有情感之际,情与智力之间就形成了一种内在矛盾。这个悖论里的“情”是复数的,而“智力”则是单数的,二者形成了悖谬张力:理性化的智力愈发达,就愈加要面对模拟人类复杂性情感与情感的复杂性,然而,越是如此,情感反而被理性越推越远。这种“情智悖论”需要更新的人类智慧来加以解决。

人工智能和机器可以有“智”,但是会不会拥有情感并在多大程度上能够去“拟情”,这些都要在未来给出答案。中国人“情理合一”的智慧在此就有用武之地,西方人有理便无情、有情便无理,情理割裂乃至对立。从“经验论”的角度看,中国古人对“情”的基本规定无非是一内一外:“从内部来说,发乎情,情动于中;就外部而言,感于物,情动乎外。情,与心、与身的关联,中国早期思想都已经关注到了——‘身为情,成于中’与‘人心之动,物使之然也’——就是从身与心两个方面规定了情,此‘情’乃是经验意义上的情,‘感’作为触动也是囿于经验层面上的,并未上升到‘性’的高度。中国早期这种情论,甚至被西方学者视为一种‘自然主义’(naturalism),但这种自然主义却是广义的,其中的自然为包孕了天地万物的广义范畴,于是,情就被视为由万物的触动而来并符合‘自然主义’诸原则,这样说也是有一定道理的:情乃自然之触动。”同时千万不要忘记,中国人所说的“心”,既在大脑中也在心脏里,它既然是理性化的mind也是感性化的heart,从而形成了理性与感性的统一,中国智慧恰恰可以对当今“情智悖论”的解决提供某种有益的启迪。

《她》剧照


最后我只想说这一句话:直面人工智能,如果我们守不住或者不必守那理性智能之底线,那就请守住人类自身的情感底线,从而解决人类的“理智与情感”之难题!

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多