分享

人工智能,我凭什么相信你?

 译言 2020-11-10

作者:Marianne Lehnis

译者:Sara Yang

本文基于创作共同协议(BY-NC)在译言发布


我们正处于人类历史上一个前所未有的时期,人工智能机器所做的决定,将很快影响到我们生活的方方面面。但是如果我们不知道人工智能机器到底是如何做出决定的,又该怎么办呢?

想象一下,当申请健康保险被拒绝,而公司只是简单地将拒绝原因归咎于其风险评估算法的时候。

或者,当你申请抵押贷款被拒绝,但银行不能确切地告诉你原因的时候。

或者更严重的,如果警察逮捕犯罪嫌疑人的行动计划仅仅是基于超级计算机进行数据处理时预测模型发出的通知时。

当人工智能(AI)冷酷决绝地飞速发展时,当其渗透到我们生活中越来越多的方面时,科技行业开始担心上述这些情况的发生。

人工智能正在大多数领域进行试验,包括医学研究和诊断、无人驾驶车辆、国家监察、军事目标对准和刑事审判。

普华永道咨询公司最近的一份报告预测:到2030年,人工智能将使全球经济增长157万亿美元。

但是这要我们付出什么样代价呢?这些软件算法变得如此复杂,以至于其创造者们也不能完全理解它们是如何给出那些答案的。

神经网络的出现——旨在模拟人类大脑的思维方式——涉及大量的相互连接的处理器,这些处理器可以处理大量的数据,利用机器学习在数百万个变量中形成斑点模式,最关键的是可以尝试去回应它们所学的知识。

这所带来的惊人力量,将使天气预报更加精确,也会使癌症鉴定更加准确。

但是慈善援助基金会政策和项目负责人Rhodri Davies说:“如果将这些系统用于投票或获取公共服务,我们就会发现,其中往往会存在一些问题。”

定量研究经理大卫斯特恩所就职的G研究公司,主要利用机器学习来预测金融市场的价格。他警告说道:“近年来AI研究的迅速进步涉及到了越来越多的数据驱动的黑箱方法。

在当前流行的神经网络方法中,其训练过程决定了数百万个内部参数的设置,这些参数以复杂的方式相互作用,并且很难进行逆向工程和解释。

机器人学”的另一个趋势是“深度强化学习”,即“设计者简单地指定系统的行为目标,让机器人通过与环境直接交互来自动学习。”他说。“这让系统变得更加难以理解。”

因此,该行业正在探索让算法可以更容易被理解,并能处于人类控制之下的方法。例如,美国国防部高级研究计划局(DARPA)正在运做一个“可解释的人工智能项目”,而非盈利性的研究公司OpenAI,正致力于“发现并制定安全通用的人工智能路径”。

这听起来很合理,但是人工智能的一个优点就是它能做人类所不能做的事情。如果我们最后又使其失去了这项优势又该怎么办呢?

艾伦图灵研究所的AI项目主任Adrian Weller认为,是否要了解机器如何得出决定的过程,取决于这些决定的重要性。很多需要考虑的事项都可能比人工智能的可解释性这一点更重要。

他说:“有时候某些问题可能比我们能否准确地了解它的运作方式更重要。例如:我们是否能够确保一个系统可靠、安全且不存在差别对待地工作。

他说,当涉及无人驾驶汽车或医疗诊断时,拥有一台更精确的机器并能拯救更多的生命可能比理解它的工作方式更为重要。

“对于医疗诊断,假设一个系统的平均准确率能达到95%,虽然这一数据听起来不错,但是我仍然想知道它对我个人来说是否是准确的,算法的可解释将有助于理解这一点。

“但是如果我们有其他的方式可以确保它对我来说是准确的,那么我可能就不会关系它的可解释性。”

另一方面,当利用人工智能来协助确定刑事判决中人们的被监禁时长时,他认为理解这一决策的产生过程是很重要的。

Weller博士说:“如果一个算法的意见是我需要被囚禁六年,那么,我会想得到一个解释,我需要知道这一算法是否遵循了适当的法律程序,并在我有异议的时候,是否能够允许挑战这个算法。”

他补充道:“我赞同一些观点,即我们应该要求公司明确算法所做的事情,特别是当我们以为这一结论是人为的时候。”

如果没有这些保障措施,人们就有可能在不知道原因的情况下受到不公平待遇,并变得“极度边缘化”。

Cooley法律公司的合伙人马克·迪姆认为,如果我们中的很多人甚至不知道那些影响我们的决定背后是人工智能算法,那么这是与法律中的既定原则相冲突的。

“想象一下,在涉及到契约理论、允诺时,如果你实际上都不能准确的知道黑箱算法会产生什么结果?你如何为基于机器学习的某个结果做保证呢?”

为了解决透明度问题,欧盟的GDPR[一般数据保护条例]立法中指出,如果决策中使用了自动化的过程,人们对其应享有知情权。

迪姆解释说“GDPR的自动化决策概念是指,不应该仅仅依靠自动决策来影响一个数据主题的基本权利。”

我们有权进行一些人为的解释和监督。但是如果相应公司不能给出解释呢?因此,这是一块仍需在法庭上进行测试的灰色地带。

那么,当人工智能做出有益的、但是我们可能无法理解的决策时,我们是否愿意与超级智能机器一起工作呢?或者,当牺牲了我们作为人类的权利和自由时,我们是否将成为自动化的奴隶?

大卫·斯特恩说,“我们会非常舒适地坐在一个1mm厚的铝管上,在30000英尺的高空穿梭,尽管我们对它运作方式的了解非常有限,但是安全统计和监管会使我们消除疑虑。”

他总结道:“我相信只要类似的监管到位,并有足够的安全保证,我们就会习惯坐在无人驾驶的汽车上,或者相信计算机对我们医疗结果的诊断。”

END

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多