2017年,在加利福尼亚州阿西洛马的BenencialAI会议上,来自全球的2000多人包括844名人工智能和机器人领域的专家,基于对AI和Robot迅猛发展的深切关注,联合签署了23条AI发展原则,称为“阿西洛马人工智能原则”(Asilomar AI Principles),呼吁全世界的人工智能领域工作遵守这些原则,来共同保障人类未来的利益和安全。虽然这23条定律可能无法得到全面落实,但仍然可以改进人工智能的开发过程,确保这些技术符合道德标准。 就在今年5月,北京智源人工智能研究院联合北大、清华等高校、科研院所和产业联盟也共同发布了《人工智能北京共识》,提出AI各参与方应遵循的有益于人类命运共同体构建和社会发展的15条原则,其中包括造福、服务于人、负责、控制风险、合乎伦理、多样包容、开放共享等原则。 但随着人工智能的快速发展,政府(Government)、公司(Private Sector)、政府间组织(Inter-govermental organization)、民间团体(Civil Society)和多方利益共同体(Multistakeholder)都对人工智能所应遵守的原则持有不同的观点。 这些原则究竟是大相径庭?还是有更多的共同点来表明行业规范?有的原则在本质上是不违反道德的,有的则借鉴了人权法。这些原则对人工智能的未来发展又有何影响? 人们希望能有一种方法可以同时查看各类组织的相关原则文件,对它们进行单独的评估并确定重要的趋势。近日,哈佛大学伯克曼克莱恩互联网与社会中心的研究人员构建了一个多方原则图。 可视化数据图 当前所用的数据涉及5类大数据集,共包括37个原则文档。研究人员在每个原则中收集了多达80个数据点,这些数据点包括文档的编写参与者、发布日期、目标受众、地理范围以及关于原则本身详细数据等。 从单一科技公司对自身实施人工智能技术的指导方针,到多方利益相关者联盟,再到各国政府将伦理原则纳入整体人工智能战略,各种各样的人工智能参与者都有其所遵守的准则,他们希望能够通过比较分析找到一些关键的原则。 统计发现,这些原则主要涉及了9个方面,许多文件或多或少都涉及到了这些原则,这九项原则中又包含很多主题。 原则与相关主题
经过分析发现,不同数据集之间具有不同的侧重方向。 以Google和Microsoft、Telefónica、Tencent为代表的公司团体所遵循的原则中大部分都涉及了公平非歧视原则,都较为注重人权和安全,其中Telia Company、Google、ITI则遵守了全部九项原则。他们对专业责任这一原则态度迥异,除了Google非常重视外,Microsoft、SAGE则根本没有涉及这一原则。 政府间组织(数据库中只提及了Council of Europe:CEPEJ)则较为关注人类对技术的控制,其次是公平非歧视和安全原则,对专业责任、提升人类价值观、人权引用没有提及。 民间团体涉及面相对较广,代表性个体都涉及到了公平非歧视,透明度和可解释性及问责制,此外人权引用、人类对技术的控制和安全在整个民间团体的数据中更受关注,同时他们对透明度和可解释性、问责制也较为重视,但对专业责任这一原则重视程度较小。 多方利益共同体都涉及隐私、问责制和安全,但不同个体的侧重点不尽相同,他们对人类对技术的控制这一原则重视程度较弱,其中的IEEE与University of Montreal则涉及上述提到的9项全部原则。 政府组织的原则都涉及到了问责制,绝大部分政府涉及并格外重视安全及公平非歧视原则,其中German Federal Ministries of Education, Economic Affairs, Labour and Social Affairs涉及9项全部原则,Smart Dubai和European High Level Expert Group on AI涉及了除人权引用之外的其他8项原则。 但观其共性,这5类组织全都遵循问责制、隐私、安全和公平原则,可见,在目前阶段,大多数组织都对人工智能的安全、隐私、责任较为重视。但他们中有一半都没有遵循人权引用这一原则。 参考:https://clinic.cyber./2019/06/07/introducing-the-principled-artificial-intelligence-project/ |
|