分享

特刊|人工智能VS 人类权益, 究竟还会有多少问题?

 新用户31841120 2020-05-03

《黑客帝国》里,尼奥选择红色药丸,走上了抗争“母体”的道路;西奥多在《她》里面为温柔体贴而又幽默风趣的萨曼莎所倾倒;《西部世界》成为有钱人肆意放纵个人欲望的地方……

每一次人工智能影视作品的风靡都会激发人们对AI 的热烈讨论:AI 有一天是否真的会控制人类?和AI 相爱还是爱情吗?人类是否可以肆无忌惮的毁坏AI 以发泄个人的欲望?这些伦理问题目前似乎还只是空中楼阁,因为电影中的超级人工智能(Artificial Superintelligence,简称“ASI”)还未出现,但AI 相关其他伦理的问题已经出现,全球范围内各政府、组织机构也已经依据伦理原则对AI 发展提出框架和约束。

2017 年12 月,美国电气和电子工程师协会(IEEE)发布《人工智能设计伦理准则》(第二版)(Ethically Aligned Design Version 2);2019 年4 月,欧盟发布《可信任AI 伦理准则》(Ethics Guidelines for Trustworthy AI);2019 年6 月,我国国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》……

作为在AI 伦理方面走在最前沿的组织,欧盟的《可信任AI 伦理准则》基本覆盖了其他政府组织发布的AI 伦理准则。《可信任AI 伦理准则》明确了在开发、部署和使用AI 时必须尊重的伦理原则及相关价值:尊重人类自主权,预防伤害,公平与可解释性;关注弱势群体及因权利或信息不对等的境况;承认AI 在给个人和社会带来益处的同时也会带来一定的风险和负面影响。基于此伦理原则,欧盟提出了可信任AI 需满足的7 项要求:人类代理与监督;技术的安全性;隐私和数据管理;透明度;多样性、不歧视与公平;环境和社会福利;问责制。事实上,《可信任AI 伦理准则》提出的要求针对的正是目前AI 发展中最为显著的几大问题和弊端。

AI 背后的隐私与数据安全隐患

算法是AI 的本质,数据是AI 的基础。任何AI 的发展都离不开大量数据的“投喂”。然而,“投喂” AI 的数据来自哪里?采集过程是否合理?是否侵犯个人隐私?个人数据访问权限是否合理?数据管理方和第三方是否正确使用数据?又能否保证数据安全?

仔细在脑海中回放我们的一天,我们会发现自己每时每刻都在交出个人信息。在中国这样一个数字化发展速度最快的国家之一,我们的日常生活已经离不开各种App 和小程序的使用。尤其在面对某些绕不开的领域上,我们不得不作出权限开放,用部分个人信息换取服务或者产品。在互联网科技日趋“寡头化”的今天,我们很难拒绝将自己的隐私贡献给网络另一端的AI。

保证整个系统生命周期的隐私和数据保护是AI 的义务之一。这包括用户最初提供的信息,以及用户在与系统交互过程中生成的信息,例如,AI为特定用户生成的输出或用户如何响应具体建议。人类行为在互联网上所留下的数字记录也足以让AI 推断出个人偏好,甚至还可以推断出我们的性取向、年龄、性别、宗教、政治观点、消费意向,轻易地获取用户的完整“画像”,而不法分子进而能够以此谋利。例如,2018 年,Facebook 数据泄露,被剑桥咨询(Cambridge Analytic)分析利用从而影响用户投票行为;2019 年3 月,北京市消费者协会发布大数据“杀熟”的调查结果,飞猪、去哪儿网均被点名……

  


在数字经济时代,数据成为驱动产品和服务创新最重要的因素之一,有着巨大工业价值和商业价值,随之而来的巨大经济利益让人趋之若鹜,数据安全问题的影响也逐步扩大、深入,并且愈加难以防范。

根据安全情报供应商Risk BasedSecurity 发布的《2019 年数据泄露报告》,2019 年有超过151 亿条记录被泄露,与上一年度的53 亿条相比大幅增长了284%。2019 年公开报告的数据泄露事件数量为7098 次,与2018 年报告的7035 次相比仅增长了1%。黑客入侵事件在公开报告的数据泄露事件中有5184 起,而报告的网络事件只有343 起。从近几年的数据来看,数据泄露的规模正以惊人的速度和规模发生。

此外,根据IBM《2019 年全球数据泄露成本报告》的数据,全球数据泄露平均总成本为392 万美元,损失的每条记录的成本为150 美元。数据泄露事件发生与泄露最终得以控制之间的时间(也被称为泄露生命周期)在2018年和2019 年有了显著增长。2019 年发现一起泄露并控制的时间前后共计279天,与2018 年266 天的生命周期相比增长了4.9%。由此可见,数据安全风险危害在不断加深。

同时,数据所面临的威胁与风险是动态变化的过程,入侵环节、入侵方式、入侵目标均随着时间不断演进,这意味着数据安全的防范难度也在不断上升。

面对数据安全公民个人隐私问题,各国家政府、机构以及技术企业相继采取了技术以及非技术手段以保障数据安全。

在技术层面,目前主要是针对大数据的数据生命周期各个阶段的措施。大数据的数据生命周期指数据从创建到销毁的整个过程,包括采集、存储、处理、应用、流动和销毁等环节。相应的有数据分类分级、数据细粒度访问控制、数据加密保护、数据脱敏、日志审计、数据安全擦除、数据防泄露等安全技术。这些针对数据安全的技术解决方案的有效程度基本取决于数据平台系统的安防能力,以及第三方的技术水平。

近年来,第三方应用已经成为数据泄露的重要渠道。如2017 年凯悦酒店大面积数据泄露事件就是源于第三方将含有恶意软件代码的卡片插入某些酒店IT 系统,利用酒店管理系统漏洞获取数据库的访问权限,从而获得用户私人信息。第三方应用往往自身携带诸多安全漏洞,成为攻击者的重要攻击工具和渠道。

在非技术层面,目前对于隐私与数据安全最为大众所知道的是欧盟的《一般数据保护条例》(General Data Protection Regulation,以下简称'GDPR')和美国加利福尼亚州(以下简称'加州')的《加州消费者隐私法案》(California Consumer Privacy Act,以下简称'CCPA')。

 

  

GDPR 主要内容体现在扩大适用范围、加强个人信息保护、对数据控制者和数据处理者加强约束规范和数据跨境要求 4 个方面。该条例被称为史上最严个人信息保护法,罚款可达一家公司全球收益的4%。虽然和GDPR 相比,CCPA 的覆盖面仅仅是加州,但由于全球大部分技术公司总部都在此处,其经济影响巨大。

此外,2020 年2 月19 日, 欧盟委员会提出了《欧盟数据战略》(Europe Data Strategy)。该战略指出,工业和商业数据是数字经济的关键驱动力,数字经济的价值将在2025 年达到8290亿欧元,占据欧盟27 个国家总GDP 的5.8%。欧盟将在接下来的五年内建立一个统一的数据市场,让欧盟在数字经济市场更具竞争力。同时,《欧盟数据战略》中提到,该数据市场应当是一个可以执行欧盟法律并且所有数据驱动的产品和服务都符合欧盟相关规范的空间。由此可见,该战略的顺利进行极可能将进一步推动欧洲数据安全相关法律法规的优化,规范欧洲数据市场,更加有效的管理隐私和数据安全。

相较于欧美百余年的隐私保护历史,我国并无保护隐私权的传统。直到2009 年《侵权责任法》的出台,隐私权才真正作为一项独立的具体人格权来保护。与此同时,随着网络时代的到来,通过侵害个人信息来侵害隐私的案件急剧增多,个人信息保护也逐渐成为我国隐私保护的重点。近年来,我国不断丰富个人信息侵害相关法律法规,但一直未出台一部专门的个人信息保护法,这决定着我们无法像欧盟那样依靠完善的个人信息保护法律体系来应对人工智能时代的隐私保护问题。

2017 年,我国发布了《信息安全技术个人信息安全规范》,针对个人信息面临的安全问题,规范个人信息控制者在收集、保存、使用、共享、转让、公开披露等信息处理环节中的相关行为,旨在遏制个人信息非法收集、滥用、泄露等乱象,最大程度地保障个人的合法权益和社会公共利益。2019 年10 月,该规范第三次修订并发布征求意见。与前两版征求意见稿相比,10 月发布的《个人信息安全规范》修订征求意见稿在个人信息保护方面进一步完善了相关制度设计。然而,与史上最严个人信息保护法GDPR 相比还有一定距离。

面对严格的个人信息保护法,有言论表示,这些法规会阻碍AI 的发展,然而这些言论却忽视了AI 研发最初的根本与核心——为人类生活更美好而建设。但如何在愈发严格的信息保护法的限制下合法收集数据、发展AI,的确是各研发机构和企业头痛的问题。

AI 加剧不平等?

或许有些难以相信,但AI 也可以像人类一样歧视你的性别、种族、信仰……

2016 年,由AI 担任评委的国际选美大赛Beauty・AI 吸引了6000 多人参赛。最终胜出的44 名参赛者几乎全是白种人,只有少数亚洲人和唯一的一位黑人。这场看似种族主义的选美比赛引发了广泛的争议以及新一轮的辩论,人们讨论算法是如何让偏见更加根深蒂固。

无独有偶,2016 年3 月23 日,由微软技术研究院和Bing 联合研发的聊天机器人Tay 在推特发出第一条消息——你好, 世界(hello, world)。然而仅在16 个小时后,Tay 就被“教坏”成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”,微软将其紧急关停下线。

AI 就像一个孩子,需要成长。它的表现与它能够获取的“食物”质量有关,那就是数据.用于AI 培训和操作的数据集质量对人工智能系统的性能至关重要。如果数据集包含社会建构的偏见、不准确和错误,那么这种数据集的输入可能会改变AI 行为,特别是在自学习系统中。此外,数据的不完整也可能导致对某些群体或人无意的直接或间接的偏见和歧视,加剧偏见和边缘化。在某些情况下,带有偏见的AI 甚至会给某些人或群体带来灾难性后果。

2016 年, 新闻调查组织ProPublica 公布的一项调查发现,在法庭上用作风险评估的AI 对黑人的评分普遍比白人要高,这意味着在AI“看来”,黑人更为危险,而这可能导致针对黑人更为严厉的判刑。哈弗福德学院(Haverford College)计算机科学教授Sorelle Friedler 表示,一个重要的问题在于少数群体在数据集中的代表性往往不足,这意味着算法对于这些群体会得出不准确的结论,而创造者并不会察觉到这个问题。

如果说带有种族、性别歧视的AI似乎目前在中国还较为少见,那么AI带来“价格歧视”就已经随处可见,并且正每天影响着我们的切身利益。

2018 年10 月8 日,知名作家王小山在微博炮轰飞猪旅行App 利用大数据“杀熟”。其他OTA 平台如携程以及美团、滴滴打车等也屡被投诉“杀熟”。就消费者而言,交易公平指消费者搜购买的商品、服务与其实际所支付给经营者的货币价值相当。但依靠AI精准洞察的“杀熟”使得市场的交易公平被打破,消费者所获得的服务和体验与其所付出的金钱并不相匹配,使得消费者处于“价格歧视”的境况。

信用额度、招聘就业……在我们看得见以及看不见的角落,AI 正在进入我们日常生活的方方面面,而原本应该最为“公平”的科技或许正在加深社会上的偏见和不公平。

过程与结果,哪个更重要?

当我们问一位医生他是如何就某一疾病做出诊断时,医生或许能够说出一些他用来得出结论的观察和数据,但这个结论背后隐含着的复杂的过程是他自己也意识不到并且解释不清的。人类的思维过程就像一个“黑匣子”,很多时候我们自己也无法清楚地解释从接收信息到得出结论这个过程中的逻辑、原理,而模仿人类思维过程的AI 有着类似的“黑箱”(black box)问题。

输入的数据和答案之间的不可观察的空间通常被称为“黑箱”,例如飞机上强制使用的飞行记录仪“黑匣子”经常在空难事故后用于向调查人员提供有关飞机当时运作情况的数据。在人工智能领域,这个术语描述了AI 技术如何在“暗处”运作的景象:我们提供数据、模型和架构,然后计算机给出答案,同时以一种看似不可能的方式继续自我指导学习。

欧盟《可信任AI 伦理准则》对AI 研发提出的“透明度”要求是解决AI“黑箱”问题的一个重要步骤。根据该准则,AI 应当具有可追溯性和可解释性,即产生人工智能系统决策的数据集和过程应尽可能的做好标准记录,AI的决策要能够被人类理解和追踪。这些AI 研发过程中记录的数据以及决策过程应该是可靠、公正的,能够处理AI生命周期中发生的任何错误。

然而,对于大多数民众来说,透明度和“黑箱”问题过于复杂且难以理解,他们更关注的是结果,即一旦出现问题,责任由谁来承担。

巴斯大学(University of Bath)计算机科学教授Eamonn O'Neill 表示:“无论你如何努力地监测代码和深度学习网络,它们仍可能是不透明的。看到无数条代码能够帮助你理解你的手机在做什么嘛?可能很难。”他认为,我们不应该关心AI 神经网络的内部工作,而应当关注结果。

他还表示,与人类相比,AI 实际上更加透明。“我们可以完整地记录软件工程过程、数据、培训、系统性能,用于支持透明度和监管,但责任必须由人类承担。”

例如,亚马逊曾召集了一个数据科学家团队来开发一种算法,帮助亚马逊识别来自世界各地的顶尖工程师,然后根据AI 对各工程师的评估打分进行招募。一切都进行得很顺利,除了一点,简历上写着“女性”的人得分较低。亚马逊试图寻找如何使其变得更公平,最终不得不放弃这个计划。尽管问责一开始并没有消除潜在的偏见,但它确实使亚马逊作为AI 的运营实体,对这种偏见的负面影响或后果负责。

随着AI 技术的发展,未来隐私、不公平、“黑箱”、责任问题会如何解决?会不会出现什么新的问题?人与AI 的相处形态会是怎样的?我们无从得知,但从目前的准则和法律法规制定来看,还是以人类权益为核心,引导科技向善,电影中的人机对立场面或许只会存在于电影中。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多