分享

更多

   

陈静 | 人工智能的人文化 : 做人类的合作伙伴

2018-07-21  heshingsh...


作者:陈静,中国社会科学杂志社编辑。


[摘要]:人工智能技术既会带来技术上的变革,也会带来文化上的变革。比如,随着“情感智能机器人”进入家庭,它们承担部分家教和陪伴的任务。相关的人文挑战也日趋显著:与机器的情感关系将怎样改变家庭关系和婚姻关系? 谁来主导情感软件? 人类有无操纵情感甚至放纵情感的隐患? 这些伦理问题不容忽视,因为家庭关系是一切社会的人文基础。再如,手术机器人进入手术台后,医生的角色和功用是什么? 如何界定医疗事故的责任? 谁对濒临死亡病人的医疗方案做最后“判决”? 除此之外,人工智能技术创造的财富在社会上如何分配,会不会加剧贫富差距或不平等现象? 机器伤害或杀害人类的事故,到底是机器的责任还是人类自己的责任? 这些机器的开发者、使用者是否要负相应责任,分别应负什么样的责任……诸如此类的伦理问题,均是这一技术所带来的人文挑战。

(一)人工智能的人文化

“人文”(humanitas) 一词,最初与“天文”相对应而提出。《周易》中《贲卦·彖传》称:“刚柔交错,天文也。文明以止,人文也。观乎天文,以察时变;观乎人文,以化成天下。”什么是人文? 即文明以止。也就是说,人要规范自己的言行举止,根据自己的身份做该做的事情。人之所以是万物之灵,就在于它有人文,有独特的精神文化,知道止于何处。

科技的本质在于创造先进工具,使人类世界更美好。其精神实质是求真,获得真知,意即“打破砂锅问到底”。而伦理贵在求善,帮助人类在复杂多变的客观世界里寻求安身立命之道。近年来研究热度不减的应用伦理学既不是案例应用,也不是模型应用,而是一种批判性、反思性的应用。它批判的是先进的科学技术不能偏离人道主义的轨道,不能成为奴役人的工具;反思的是“枪不会杀人,只有使用枪的人才会杀人”的价值理念。

近代以来,科技被视为人类社会发展的决定性力量,并日益脱离人类的控制。始于叔本华、尼采的反对科学主义的思潮由是兴起。作为现象学代表的德国哲学家胡塞尔就曾表示:“我们的出发点在于对科学的估价的改变,这种改变是 20 世纪的末期出现的,这种估价的改变并不牵涉到各门科学的科学性,而只牵涉到各门科学、即绝对意义上的科学,对于人的实存所已经赋予的和可能赋予的意义。”胡塞尔认为,科学的基础应该是以人作为主体而进行的探索。

所谓人工智能的人文化,意即强调科学家或科学共同体的道德义务,督促他们创造出有道德的人工智能体。这种人工智能体关怀人和人类社会的利益,以人为主体,重视人的价值,尊重人的尊严和权力,与人类一起迈向自由、平等和解放。

(二)延展智能:将人类价值观嵌入人工智能体

“机器的自由化程度越高,就越需要道德标准”。 应对人工智能带来的人文挑战,为机器设置人类的价值观十分重要。在麻省理工学院的媒体实验室里,科学家用“延展智能”来表达这个问题。所谓延展智能,也就是说如何将人类的价值观嵌入人工智能。

首先,从源头上堵住不利于人类社会发展的人工智能体出现。规范人工智能科学家的行为,在技术研发前引入伦理委员会机制,预测风险,并在程序设置中加以控制,重要的是找到使用人工智能造福人类的人。其次,人工智能体的设计,尤其是机器人的设计和应用必须遵循阿西莫夫的“机器人三大定律”,并以此为法则,在“不伤害”原则的前提下,培养人工智能体与人类的良好交互能力。

“机器人三大定律”首要原则是不能伤害人类,或者保护人类不受伤害;其二是听命与人,但不得违反第一原则;其三是保障自身安全,但同时不得违背上述两点原则。三大定律定位了作为人工智能体的机器人,仅仅是人类在自身发展过程中创造的一个工具。不管机器人有无意识,有无自我决策能力,它都必须遵守“不伤害”的原则,这是应用伦理学秉承的核心原则,而其产生的最大诉求就是为了人类社会运转更经济、更有效率。再次,政府的管控不能缺位,要保证研究结果获得分享,不让某个团体单独受益。当一项能够给人类带来很大便利的技术投放市场时,政府、私人企业和学术界谁来控制它,就成为一个必须明晰的课题。政府的管控是否缺位、及时,引导是否正确、到位,都是制约人工智能发展偏离轨道的重要因素。最后,人类要保持对大自然的敬畏之心,对理性抱有谨慎的信心。要知道,我们目前拥有的这些难以置信的感觉,相对于宇宙和自然界来说,还仅仅是沧海一粟,我们没理由狂妄自大,而应时刻提醒自己,科学探索无止境,技术使用有禁区。

(三)人工智能的价值观

在有限制的基础上进行人工智能研究,从第一个关口“卡”过人工智能被滥用的可能。接下来的问题是将人类哪些价值观注入人工智能,使其更好地为人类服务。首先是以人为本的价值观。以人为本是最基本的人文素养,也是技术应用于人类的终极价值。其深层涵义在于:第一,珍视人的生命、保护人的尊严;第二,尊重人的自由和平等;第三,发扬民主精神和互爱精神;第四,促进人的全面发展。人工智能的产生是为了人,使用是为了人,它的消灭同样也是为了人。假设科学家或者伦理学家预测到人工智能体可能给人类带来灾难时,必须果断中止研发,对自己的行为负责。

其次是公正的价值观。技术进步最终受益者应是全人类、全社会,而不应成为加剧贫富差距,促进社会不公平的工具。以导航和无人驾驶为例,人工智能已经开始改变交通技术,但它绝不能止于让驾驶更安全、更经济、更便利。智能车的未来在于“消灭三大差别”:高档车和低档车之间的社会地位差别、有无停车位的使用成本差别、开车能力高低之间的安全差别。

再次是和谐的价值观。在人工智能技术的实践应用中,其与人类和大自然之间的关系必须秉承和谐原则,这将有利于人工智能深化服务质量,满足人类需求。在人工智能的应用过程中,单纯以善为指导的伦理标准已越来越不适应社会发展以及人类当下的道德评判标准。随着科学的进步,人工智能的应用逐渐融入到人们的生产生活中,“不伤害”原则虽然是基本原则,但是也存在一些弊端。例如片面性,考虑并体现了一方的利益,必然就忽视了另一方的利益。而基于三大定律的最后一条原则,对于将来有可能出现的具有自主性,或半自主性的机器人而言,尤其是类人型、智能化机器人来说,为了实现人机之间的互相尊重,机器人与自然间的相互融合,这就需要一个更有效的价值观,即和谐的价值观。它不仅体现在机器与人之间,更为重要的是体现了机器、人与自然三者之间的和谐。

最后是可持续发展的价值观。科技的进步理应对现在和未来负责,对子孙后代负责。现代科技的不可逆性,警示我们不能随便拿人类命运冒险,更不能将技术的进步当作“赌注”,与人类未来和大自然较量。在现实社会,科技的进步方便了人类,但是也有可能使人的某些能力退化。例如,计算机时代的到来,特别是最近几年 VR 的兴起,有可能给人类的沟通能力带来障碍,导致无法体验的社会。再如,人工智能可能替代执行标准化的常规任务,但不是消灭工作岗位。人类发明一项技术,并不只是要看它的短期效用,还要看它能否促进人类的进化,有利于人类社会的长期可持续发展。



来源:《学术界》2017年第9期

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。如发现有害或侵权内容,请点击这里 或 拨打24小时举报电话:4000070609 与我们联系。

    猜你喜欢

    0条评论

    发表

    类似文章 更多
    喜欢该文的人也喜欢 更多