分享

【学术发表】曾毅、包傲日格乐|从虚拟现实到“元宇宙”:伦理风险与虚实共治

 heshingshih 2022-10-10 发布于北京
图片

[摘 要] 


首先,“元宇宙”具有“厚重”和“想象”两种特性,对公众承诺了未知的情境架构,但概念不清。又试图以不完备性实现开放性架构,但无法实现人同情境的互动。因“数字孪生”困境,“元宇宙”无法成为“另一个宇宙”。至此,“元宇宙”实际上仅是具备沉浸性、互动性,通过聚合技术生成的虚拟体验疆域。其次,当人工智能作为“元宇宙”关键支撑技术时,产生立体化的实存风险,表现为安全、认知、道德三种疑难。最后,提出应通过集体责任、现实本位、虚实共治三种途径,建构负责任的“元宇宙”治理框架。

[关键词]

 

“元宇宙”;沉浸性;立体化风险;虚实共治

 
注:本文全文刊载于《哲学动态》2022年第9期,此处为文章要点概述。全文请参考《哲学动态》刊物。

本文英文版全文可通过以下链接访问:
https://stitute/2022/10/09/from-virtual-reality-to-metaverse-ethical-risks-and-the-co-governance-of-real-and-virtual-worlds/

本文中文版全文可通过以下链接访问:
https://stitute/wp-content/uploads/2022/10/metaverse-ethics-and-governance.pdf
 
“元宇宙”对公众承诺了未知的情境架构,但面临概念不清的困境。又试图通过不完备性实现开放性架构,但无法解决情境互动的需求。且面临“数字孪生”困境。面向个体虚拟化身的数字孪生也不具备完整性。

“数字人”与“数字孪生”并非未来不可实现,然而以人工智能生成的“数字人”和以“克隆”真实人生成的“数字孪生”面临相关却不完全相同的困境。无论目前的“数字人”以何种形式和形象展示给公众,其本质目前仍然是一个看似智能的信息处理工具。现代人工智能生成的“数字人”没有“自我”,没有“有意识的心灵”,不具备真正的理解能力,也就不具备智能与智慧的根基。而如以“信息处理工具”的现实审视“数字人”,则其定义也就失去了成立的可能性。若想实现真正意义的“数字人”,则需重塑以构造“工具”为目的的现代人工智能基础,以“自我”为出发,构建“有意识的心灵”,实现真正意义的“理解”。

“数字孪生”的愿景是在数字系统中“克隆”真实人,创造“数字化身”、“数字分身”,从而实现真实人可以“分身”到不同场景。然而倘若“数字孪生”停留在“信息处理工具”的阶段,则无法真正满足社会应用和人类诉求,倘若“数字孪生”具有“自我”和“有意识的心灵”,必将具有或演化出“反思能力”,则“数字孪生”不会满足于“化身”和“分身”的存在形式,甚至将出现以各种形式挑战被“克隆”真实人的(存在性)风险。而倘若“数字孪生”具有了“自我”和“有意识的心灵”,被“克隆”的真实人也将难以接受“数字孪生”不仅仅是其“化身”与“分身”。至此,“元宇宙”无法真正实现对自身虚拟性的否定,即无法成为“另一个宇宙”。

“元宇宙”技术应当与现实世界高度关联,不能完全脱离现实世界。“元宇宙”的“元”,营造出相较于现实世界更为本质世界的含义,没有体现出此项技术聚合性的特质。因此“元宇宙”是具备沉浸性、互动性,通过聚合技术生成的虚拟体验疆域。“元宇宙”不独立于个体生存的现实世界之外,而是基于现实世界生成的虚拟体验疆域。

一、立体化的实存风险


人工智能、“元宇宙”作为两个独立的技术发展时,其潜力可以造就两种可能世界,也对应两种可能世界风险。当人工智能作为“元宇宙”的一种关键支撑技术,乃至是“元宇宙”中“责任主体”时,两个可能世界的风险绝不是简单的线性叠加,而是呈现为立体化的实存风险,表现为安全、认知、道德三种疑难。安全疑难表现在隐私安全、情感安全威胁、自主性威胁三方面。认知疑难表现在影响个体对真实世界的认知和心理健康、无法在非连续性的虚拟环境完成生命阶段、易致成瘾性等。道德疑难表现为道德风险的缺场和道德评价的困难。

二、虚实共治何以可能


目前人类对于人工智能和“元宇宙”两者造就的可能风险,都找不到完善的解决方案,更没有能力应对由两者共同作用而产生的风险。解决上述疑难,首先,需考虑如何归属技术责任。“元宇宙”技术面临技术利益相关者的责任分配困境。“元宇宙”技术如若成为生活的一部分,必先由社会进行技术赋权。基于控制论说明,首先由集体承担“元宇宙”技术责任。其次,当“元宇宙”相关基本概念、愿景和应用仍然有重大风险时,作为还未形成自我责任负担能力的儿童与青少年,不应当被过早地推向这一未知的空间。第三,确保服务提供者不基于“多手问题”逃避责任。最后,基于人的不完备性,将自主性归还人本身。保护自主性应当基于技术的透明度。技术透明度要求生产方推动“元宇宙”技术的可解释性工作,以进行技术内外的广泛讨论。

另外,需要使本来的世界更具参与性,恢复第一本位的沉浸。最后,对“元宇宙”的治理需继承互联网、人工智能等相关技术治理规范并进行必要扩展。“元宇宙”技术要求用户具备更高的信息整合能力,支撑虚拟参与的非碎片化。文化互鉴、互信要求不同文化背景研究者之间,以意见交互的形式,确保新技术的开发从负责任的上游调查开始。在全域性意义上保证相关利益涉及方皆参与“治理共同体”价值差异是不同文化价值分配权重的差异。文化互鉴和互信问题核心,就在于如何处理价值权重的不同。重塑虚拟社会,历史不可磨灭。虚实共治的文化互鉴与互信需要基于历史的开放性

三、结论


为了解决“元宇宙”技术不确定性导致的风险,需要对风险具备高度敏感性,并基于负责任的虚实共治框架,促进“元宇宙”技术可持续的发展从责任的分配,再到不同文化之间的互鉴、对话,最终回归每一个人所关心的生命价值问题上。通过重建文化身份,以文化互鉴、互信在共同的开放性历史维度,构建虚实世界的共治路径

作者简介:

图片

曾毅

中国科学院自动化研究所研究员、脑图谱与类脑智能实验室副主任、人工智能伦理与治理研究中心主任;清华大学人工智能国际治理研究院首席专家;中国科学院大学岗位教授,未来技术学院、中国科学院哲学研究所/人文学院博士生导师;科技部新一代人工智能发展研究中心首批聘任专家;国家新一代人工智能治理专委会委员;联合国教科文组织(UNESCO)人工智能伦理特设专家组专家。

研究方向为:类脑人工智能、人工智能伦理、治理与可持续发展。是类脑认知智能引擎“智脉(BrainCog)”开源平台的负责人(http://work),在人工智能伦理方面,从事有道德的人工智能模型研发,主持了链接人工智能原则平台(www.linking-ai-principles.org)、人工智能治理公共服务平台(www.ai-governance.online)、面向可持续发展的人工智能智库(https://ademy)的研发,是《人工智能北京共识》、《面向儿童的人工智能北京共识》、《和谐人工智能原则》、《面向生物多样性保护的人工智能原则》、《面向气候行动的人工智能原则》等伦理原则的责任起草者。

图片

包傲日格乐

中国科学院大学人文学院哲学系/中国科学院哲学研究所2021级科学技术哲学专业博士研究生,导师曾毅研究员。主要研究方向为人工智能哲学与伦理。

研究中心

主页

https://www.stitute/

图片


中国科学院自动化研究所人工智能伦理与治理研究中心是从事人工智能伦理与治理,符合伦理道德的人工智能模型与应用、人工智能可持续发展与治理研究的智库与科技创新深度融合的综合性研究中心。中心作为代表性机构参与国内外人工智能伦理与治理原则、规范的形成与实施;开展人工智能内生安全、符合伦理道德的人工智能模型与应用研究;并对人工智能伦理、治理与可持续发展的近期与长远科学挑战开展前瞻研究。

中心长期参与国家有关部委、国际组织的人工智能伦理与治理相关研究工作,参与编写《国家新一代人工智能治理原则》、《国家新一代人工智能伦理规范》、《联合国教科文组织(UNESCO)人工智能伦理全球建议书》、《世界卫生组织(WHO)健康领域人工智能伦理指南》。研制并发布了“链接人工智能原则平台”、“人工智能治理公共服务平台”、“面向可持续发展的人工智中心能智库平台”等一系列人工智能可持续发展与伦理治理交叉研究与服务平台。

中心与国内外相关机构及各国学者、产业代表共同发起的面向可持续发展的人工智能协作网络(AI for SDGs Cooperation Network)是促进人工智能赋能实现可持续发展目标,以及人工智能的发展与治理深度融合创新的国际合作网络。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多