分享

2016 OECD技术预见论坛纪要

 yanyahoo 2017-06-02

2016 OECD技术预见论坛纪要

原创 2017-03-21 韩芳 微言创新
微言创新

InnoTalk

“微言创新”由上海科学院规划研究处和上海产业技术研究院战略咨询中心共同出品,专注产业创新领域研究。言微意未尽,集智求创新。

编者按

 2016年11月17日,由数字化政策委员会(CDEP)组织举办的OCED技术预见论坛以“人工智能”为主题,邀请了来自IBM、Facebook、Google、微软、法国国家科学研究中心、日本内阁办公室科学技术政策委员会等多位专家学者发表观点,本期介绍该论坛的主要内容。



“应用型AI”(Applied AI) V.S “通用型AI”(artificial general intelligence AGI)

有两种不同的方式来思考人工智能(AI)当前和未来的使用和影响:1)“应用型AI”系统专门用于解决特定的问题或推理任务——大多数今天使用的应用程序属于这一类别,在AI研究中占大部分; 2)在更遥远的未来,一个“通用型AI”(AGI)机器可能具有更广泛适用的智能行动,它行动起来就像人类。这种通用型AI将引发大量问题,科幻小说中有所描述。

此论坛重点关注的是应用型AI。

AI无处不在,大显神通

机器学习、大数据和云计算使AI加速发展,大大增强了AI的能力、可用性和影响。AI可以提高效率、节约成本并实现更好/更准确的决策,帮助人们解决复杂的问题。基本上在每一个经济领域包括社交网络、健康、环境或交通方面,都有AI应用的例子。其中许多是目前已经广泛使用但并不明显的AI应用程序,如信用卡支付检查、GPS导航、搜索引擎、翻译器、拼写和语法检查器、垃圾邮件过滤器、社交网络、个人助理(如Apple的SIRI)或机器人应用程序。在很短的时间内,AI已经成为主流,正迅速渗透和可能改变整个经济社会,也因此在经济和社会层面提出了许多政策问题。

AI意识建设还需加强

虽然AI已日益成为OECD成员国及其合作伙伴国家的优先发展项目,日本信息通信部(MIC)和内阁办公室、美国白宫、英国议会等都将AI上升为国家战略。但是总体而言,AI对未来几年的可能的影响仍然被政策制定者和广大公众忽视。政策制定者有必要考虑社会如何最好地从AI中受益,同时最大限度地减少歧视、隐私侵蚀、公众匿名丧失等风险,并且可能要为自动决策制定限制条款。在AI上不要只为追求轰动效应,而要采取以证据为基础的知情沟通方式。

  AI可能会带来哪些挑战和风险

1
对人类就业造成影响和挑战

我们还不能确定AI对工作带来什么影响,但可以确定的是,AI势必对人类就业造成影响和挑战!比较容易被AI替换的往往是可预测或重复的工作,如司机、收银员、会计师、工人或医生。同时,AI也应该会创造全新的工作类型。

2
AI可能引发“赢者通吃”

人们还关注AI加剧的收入不平等现象以及谁会控制AI技术。在经济学层面,AI的发展会让人们更加关注技术所引发的“赢者通吃”。一些拥有大量数据和经费的公司和政府,可能会发展出很好的AI技术,并获得AI发展的大部分收益。由于公司将依赖更少的人员劳动力,收入则集中在更少的人手中,从而加剧了收入分配不平等。还需要关注“赢者通吃”范式对地缘政治的影响,它对发展中国家的影响肯定会更大,因为发达国家控制了技术、专利和数据。

3
AI必须保证透明性和可解释性

AI若带有偏见地解读数据、不可见地操纵人类决策过程或被恶意使用会导致各种风险。举个例子,面部识别的应用可以提高安全性,但如果识别人脸的机器作出的推断不透明且含有偏见,则可能增加人权和公民自由的风险;再比如利用AI推测人们的意图、健康或未来的行动可能会侵犯隐私和个人信息;还可能引起新的安全风险,如恶意软件可能滥用人工智能网络系统或自主武器可能被恶意使用的风险。因此,论坛上提出了“合理的透明”(reasonable transparency)的概念。也有人认为,“可解释性”(explainability)或“可理解性”(understandability)可能比“透明”更有用,因为AI产生的机器代码越来越复杂了,会逐渐超越人类的解码(decode)能力。政府应该在确保AI透明度或可解释性方面发挥特殊作用。

4
AI驱动的自动决策的问责问题

AI本质是机器,不能有效地成为法人,或对其决策负有责任。那么当AI驱动的自动决策引发各类事故需追究责任时,谁来负责?无人驾驶汽车撞到人了,是AI系统负责任?AI系统的设计者负责任?汽车生产公司负责任?还是驾驶员负责任?

 如何最大程度降低风险?

1
人们需要适应和调整

人们将需要做出重大的适应和调整,并学习新的方式,来发现如何在一个AI取代许多人类工作的世界中最好地参与社会并利用他们的个性和创造力为人类社会做出贡献。政策也需要调整,以促进持续的教育、培训和技能开发,在大学里需配设更多的AI理论和实践教育,降低日益增长的不平等和失业的风险。并且倡议将AI定位为支持人类决策(如IBM的Waston),而不是代替人类。

2
AI的合理透明度和可解释性非常重要

AI推断/决策过程的不透明会导致各种风险。论坛中出现的最强烈的主题之一是AI算法需要合理透明度和可解释性,特别是做出决定影响人或处理关键基础设施的AI算法被认为需要特定的透明度,以帮助人们判断AI做出的决策或推论,其有效性和可信度如何。政府应在确保AI的透明度或可解释性方面发挥重要作用。关键或危险的领域需要特别关注以及采取一定的措施,如触发人类干预、需要保护措施和特殊透明度,甚至可能有必要禁止一些AI研究或应用,例如自主的AI杀手武器。人类情感AI模拟,或被称为“合成AI”(synthetic AI),是另一个可能需要采取安全措施和特别透明度的领域。

3
设计以人为本的AI,尊重社会规则

论坛中出现的另一个主题是“设计伦理”(ethics by design),建议AI系统的设计应该与“设计伦理”紧密结合。从AI系统设计一开始就具有算法问责性,明确责任,基于尊重人们、遵守社会规则、尊重文化和宗教差异的原则,并适合于使用环境(例如专业,家庭等)。将AI定位于协助人类,最大限度地提高效率,不破坏人的尊严。防止偏见和歧视,保护隐私。还有与会者呼吁就如何适用“AI伦理”(AI Ethics)或“设计伦理”这样的概念进行更多对话,而且在跨国家级别上应用,因为伦理和编纂伦理的法律往往是在国家层面开展的。

4
适时制定AI发展共同原则

建议决策者应召集利益相关者考虑AI网络的社会、经济、伦理和法律问题,并建议OECD制定一般性的AI指南。一些发言者认为需要国际准则,以及与文化相适应的国家法律,即使这增加了AI技术的商业化时间。

参考资料:“SUMMARY OF THE CDEP TECHNOLOGY FORESIGHT FORUM ECONOMIC AND SOCIAL IMPLICATIONS OF ARTIFICIAL INTELLIGENCE”



作者简介

阅读

''

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多