分享

更多

   

给人工智能加以“紧箍咒”:世界各国积极推出人工智能伦理规则

2019-05-04  BBSBIAN

转自:全球技术地图(drc_iite)

作者:魏莹 宫学源


未来,人工智能的发展将充满各种不确定性。算法歧视、数据滥用和人类失业等问题或将接踵而至,给人类社会带来前所未有的挑战。如何避免人工智能发展带来的重大风险,更好地利用人工智能技术造福社会?只有让伦理先行,给“无所不能”的人工智能加以“紧箍咒”,才能使人工智能前往正确的方向,成为帮助人类探索未来的得力助手。

“人工智能伦理”缘何重要?

科学技术是中性的,可以用于造福人类,也可以用于为害人类。随着科学技术的迅猛发展,其威力越大,可能带来的恶果也越严重,这种影响是全球性的和全人类的。历史上每一项重大技术发明,如电力、蒸汽机、互联网等,都会给社会带来新的风险和挑战,诸如失业、隐私、安全等问题。科技进步不止一次地带来了伦理的难题,科技究竟会带给人类什么?是进步?是毁灭?这是一个永远都争论不清的问题。

马克思在第二次工业革命之开端曾指出,机器体系不同于一般工具,是“人手创造出来的人脑器官”,既是一种异己的强大的机体,也受控于全社会所共同积累和分享的“普遍智能”。在弱人工智能时代,人类对于机器的喜明显大于忧,机器可以搬运重物,机器可以无人驾驶,机器可以快速计算……随着技术的高歌猛进,人工智能逐步可以实现某种可计算的感知、认知和行为,在功能上模拟人的智能和行动,表现出对人类思维这一区别人类和其他生物的核心器官的替代。人工智能不再是单纯的工具,开始不断模糊物理世界和个人的界限,刷新人的认知和社会关系,延伸出复杂的伦理、法律和安全问题。

早在70多年前,阿西莫夫在短篇小说《环舞》(1942年)中提出通过内置的“机器伦理调节器”使机器人服从道德律令,他构想出机器人三定律:

●第一定律,机器人不得伤害人类或坐视人类受到伤害;

●第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;

●第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。

后来,为了克服第一定律的局限性,他还提出了优先级更高的机器人第零定律:机器人不得危害人类整体或坐视人类整体受到危害。

回到人工智能的现实发展,随着无人机、自动驾驶、工业机器人、致命性自主武器等应用的发展,涌现出大量新的社会问题。然而,人工智能的未来发展还有着很多可能性和不确定性,法律规制因具有一定的滞后性和保守性,难以实现对人工智能的有效监管。只有建立完善的人工智能伦理规范,超前给人工智能加以伦理道德的“紧箍咒”,才能更多地获得人工智能红利,让技术造福人类。当下科学界的主流观点是机器不能不讲道德,否则,这个世界将无法想象。按麻省理工学院情感计算研究组主任罗萨琳德·皮卡德教授的说法是,“机器越自由,就越需要道德准则。”

世界各国正积极推出人工智能伦理规则

英国哲学家大卫·科林格里奇(DavidCollingridge)在《技术的社会控制》一书中提到:一项技术的社会后果不能在技术生命的早期被预料到。然而,当不希望的后果被发现时,技术却往往已经成为整个经济和社会结构的一部分,以至于对它的控制十分困难。这就是控制的困境,也被称为“科林格里奇困境”。

要避免人工智能技术创新治理陷入“科林格里奇困境”,就必须预先研判,提前布局。尽管人们对于人工智能未来将走向何方众说纷纭,但对人工智能加以伦理规制,已经成为一个基本共识。

2016年6月6日,日本人工智能学会伦理委员起草了面向研究人员的伦理纲要草案。草案中提出了AI给人类社会带来危害的可能性,要求采取措施消除威胁和防止恶意利用”。草案指出:人工智能具有广泛性和潜在的独立性,可能在研发人员未预知的领域给人类带来影响,对人类社会和公共利益来说可能是有害的。草案提出警戒:“决不能使人类创造出来的东西,毁掉人类自己的幸福”。此外,草案中还指出,应消除AI对人类安全的威胁,针对其潜在的危险向社会敲响警钟,并就防止恶意利用制定了相关条款。

2016年9月,英国标准行业协会发布业界首个关于机器人伦理设计的公开指标——《机器人和机器系统的伦理设计和应用指南》,旨在保证人类生产出来的智能机器人能够融入人类社会的道德规范。

2016年9月,亚马逊、谷歌、Facebook、微软和IBM等五大科技巨头宣布成立一家非盈利组织:人工智能合作组织(Partnershipon AI, 全称为:Partnership on Artificial Intelligence to Benefit People andSociety),目标包括:一、为人工智能的研究提供示范,涉及的领域包括伦理、公平、和包容性;透明性、隐私性和共同使用性;人和AI系统之间的合作;以及相关技术的可靠性与鲁棒性。二、从专业的角度促进公众对人工智能的理解与科普,并定期分享人工智能领域的进展。三、为人工智能领域的研究人员提供一个可供讨论和参与的开放式平台,让研究者们之间的沟通更简单无阻。

2016年11月,美国电气和电子工程师协会(IEEE)发布世界首个《人工智能道德准则设计草案(EthicallyAligned Design)》。希望借助该文件帮助科技行业打造能够造福人类的AI自动化系统,改变道德伦理无需担虑等想法。

2017 年 1月,在加利福尼亚州阿西洛马举行的 Beneficial Al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。使未来人工智能的研究人员、科学家和立法者遵循,确保安全、伦理和有益。

2017年11月,为确保人工智能发展的未来仍然具有伦理和社会意识,美国电气和电子工程师协会(IEEE)宣布了三项新的人工智能伦理标准:机器化系统、智能系统和自动系统的伦理推动标准、自动和半自动系统的故障安全设计标准、道德化的人工智能和自动系统的福祉衡量标准。

2018年4月25日,欧盟委员会发布《欧盟人工智能》文件,提出人工智能的欧盟道路。文件表示欧盟要竭力确保在人工智能领域有国际竞争力,让所有欧盟国家都能跟上这场数字变革并以欧盟价值观作为新技术的基础。在欧洲价值观的基础上,欧盟委员会提出了发展人工智能的一种三管齐下的方法:增加公共和私人投资,为人工智能带来的社会经济变革做好准备,并建立起适当的道德和法律框架。

2018年4月,英国上议院人工智能特别委员会发布报告说,在发展和应用人工智能过程中,有必要把伦理道德放在核心位置,以确保这项技术更好地造福人类。报告提出,应确立一个适用于不同领域的“人工智能准则”,其中主要包括5个方面:人工智能应为人类共同利益服务;人工智能应遵循可理解性和公平性原则;人工智能不应用于削弱个人、家庭乃至社区的数据权利或隐私;所有公民都应有权利接受相关教育,以便能在精神、情感和经济上适应人工智能发展;人工智能绝不应被赋予任何伤害、毁灭或欺骗人类的自主能力。

2019年4月,欧盟委员会发布正式版的《可信赖AI的伦理准则(EthicsGuidelines for Trustworthy AI)》,提出了实现可信赖人工智能全生命周期的框架。根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。

人工智能伦理建设,中国应如何发力?

近年来,中国人工智能产业发展之迅猛,世界已经有目共睹。但中国境内关于人工智能伦理的讨论,却远未形成气候,与欧美甚至日韩都有明显的差距。从长远来看,人工智能伦理规则的缺失,必然会导致人工智能产品竞争力的下降,导致人工智能标准话语权的丧失。建设基于全球价值观、符合中国特色的人工智能伦理规范,已经刻不容缓。中国社会的现代化、智能化转型,除了要经历人工智能等先进技术的洗礼之外,更需要经受现代伦理的心灵熏陶。

一是要从战略上高度重视前沿科技的伦理监管。与人工智能类似,机器人、基因编辑、大数据、3D打印和“纳米技术”等前沿科技都可能会引发伦理道德危机,其中涉及的数据滥用、个人隐私和歧视问题,都具有一定的相似性。这些伦理危机如不能提前预防、有效化解,对前沿技术的发展将造成严重阻碍。对此,我应从战略上高度重视前沿技术的伦理监管,统筹相关部门资源,积极探索契合前沿科技发展的伦理准则。

二是促进社会各界人士共同参与人工智能伦理规则制定。为避免人工智能发展过程中的伦理风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。现有人工智能伦理的研究,常常缺少产业界资深研发人员的参与,或导致人工智能伦理规则难以落地。只有社会各界人士的广泛参与,人工智能伦理规则才能更具普适性、可操作性,才能发挥更大的社会价值。

三是积极开展对外交流,凝聚全球共识。随着全球文化和伦理价值的日益多元化,人工智能技术的伦理标准和价值需要达成国际性共识。目前,人工智能伦理研究多由美欧来主导,缺少来自发展中国家的声音,也缺乏来自东方文化的声音。对此,我应积极开展对外交流,凝聚全球共识,增强我国在人工智能标准制定上的话语权,抢占未来发展先机。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。如发现有害或侵权内容,请点击这里 或 拨打24小时举报电话:4000070609 与我们联系。

    猜你喜欢

    0条评论

    发表

    类似文章 更多
    喜欢该文的人也喜欢 更多