分享

负责任的人工智能:安全的人工智能系统

 123山不转水转 2019-10-26
人工智能的风险

人工智能在不同的领域、行业的大规模应用会带来多种安全风险。比如算法黑箱、企业算法偏见、新闻媒体的误导、假新闻等现象, 往往会给人类社会带来巨大的损失

正如著名计算机科学家吴恩达所说,“与 100 年前电力改变了几乎所有事情一样,今天我们很难想象在未来几年没有哪个行业不会被人工智能所改变”。
根据 2019 年 2 月普华永道针对全球 CEO 的调查结果显示,受访者普遍特别关心人工智能带来的挑战。
具体而言:调查结果显示,
  • 85% 的受访者认为未来 5 年,人工智能将改变企业的业务;

  • 83% 的组织认为负责任地使用人工智能是组织的优先事项;

  • 84% 的受访者认为基于人工智能所做的决策必须被解释才能够被信任; 

  • 52% 的受访者希望了解自身的人工智能系统并解决黑箱问题;

但是只有 6% 的组织制订了大规模人工智能计划,48% 的受访者希望保护自身的人工智能系统免受外部对抗的攻击。
除此之外,根据对企业高管的调查结果显示:
  • 64.6% 的受访者没有制定措施或拟定政策以解决由人工智能引起的道德问题;

  • 19.3% 的受访者相信开发人员或批准人工智能解决方案的负责人应当对人工智能的行为负责;

  • 88.1% 的受访者对本组织的检测能力并不自信,一般在出现任何严重问题之前都会关闭存在故障的人工智能系统;

  • 11.9%的受访者在自身的人工智能系统作出错误决定或意外处理时能够清楚地阐明原因;

  • 37.6% 利用人工智能系统的受访者并没有正式考虑如何利用人工智能系统实现其业务目标;

  • 30.5% 的受访者在投资人工智能之前并不能确定公司或组织考虑了特定的道德要求。

从公司的角度而言, 人工智能完全可能颠覆其价值链以及自身架构, 因此公司倾向于规避人工智能可能带来的风险, 不过现在并不清楚具体采取哪种行动来规避风险,很少有针对性的解决方案,这便是我们应当重点关注的问题。

人工智能的风险多种多样,具体而言:商业层面的风险,包括对抗攻击、网络入侵风险、隐私风险、开源软件风险等;行为风险,包括错误风险、偏见风险、不透明风险、性能不稳定风险等;道德风险,包括价值缺失风险、价值调整风险等,比如对黑人的歧视;控制风险, 包括在人工智能流程中缺乏人为代理的风险、无法检测和控制恶意人工智能的风险等;社会风险,包括名誉风险、自主武器扩散风险、智力鸿沟风险等;经济风险,包括工作流失风险、责任风险、“赢者通吃”风险等,以及国家层面的风险,未来需要更加关注人工智能的风险控制和安全保护。

负责任的人工智能框架和工具

为了加速创新并充分挖掘人工智能的潜力, 国际社会需要创建一项关于人工智能的框架和工具,优先考虑负责任和合乎道德的人工智能。

在道德与法规方面,评估与人工智能伦理有关的风险,并在不同的情况下确保人工智能合乎道德,识别并评估影响人工智能解决方案的相关法规。
在行为和安全方面,可分为偏见与公平、可解释性、鲁棒性与安全性,从偏见与公平层面,应发现基础数据和模型开发过程中的偏见, 使企业能够了解哪些流程导致的不公平。
从可解释性层面,全面解释模型的决策,以及将预测推至不同的利益相关者。从鲁棒性与公平性层面,应随着时间的变化评估人工智能的性能, 发现长期性能中人工智能潜在的中断或挑战。

在治理方面,应针对人工智能应用程序引入企业范围、端到端责任制以及操作的一致性,以最大程度地降低风险。

确保人工智能安全性

在欧洲委员会人工智能高级专家组发布的《可信人工智能伦理指南(草案)》中,指出人工智能系统既不能造成或者加剧危害,也不应对人类造成不利影响。人工智能系统及其运行环境必须是安全的,在技术层面,人工智能应十分强大且不会被恶意利用。

正如所有的软件系统一样,同样应当保护人工智能系统免受漏洞的侵害,因为漏洞的存在可能会被不法分子利用,例如黑客可能会对数据、模型或基础架构(软件和硬件)进行攻击。

结语

为了确保人工智能的安全,应从以下六个方面着手:

第一,评估现有人工智能的风险和控制措施,并对风险治理框架、政策和工具进行建模;
第二,评估新的人工智能风险以及新兴的人工智能治理、道德规范,以明晰差距; 
第三,加强治理框架和流程,弥补差距;
第四, 对商业利益相关者、流程掌控者和数据科学家加强教育和培训;
第五,建立、购买和利用现有的工具来管理人工智能模型;
第六,持续监控新的漏洞和进展。

阿南德·拉奥(Anand Rao),普华永道全球人工智能主管合伙人,主管全球人工智能。

选自《信息安全与通信保密》2019年第十期

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多