分享

道德AI的业务

 愚然楼 2023-05-08 发布于湖南

导语:政府正在质疑人工智能的可信赖性,但是企业会如此谨慎吗?

图片

经济合作与发展组织秘书长安吉尔古里亚表示,要想让人工智能(AI)发挥其潜力,人们必须信任它。古里亚本月在伦敦商学院发表讲话时指出,以人为本的AI可以提高生产力,促进“包容性的人类进步”。但是,如果人工智能使用不当,那它就可能会被滥用。

他说:“道德伦理是出发点,它用这种知识、信息和技术来划分你应该做什么、不应该做什么。”

经济合作与发展组织是组织和政府机构之一,他们正在就如何在道德上实施AI提出疑问和相应的建议。对于这些大多数组织来说,信任是核心。但是,企业可能会对道德伦理AI的呼吁置若罔闻。

No.1

企业很放心

图片

在一项对六个国家的5300多名雇主和雇员进行的一项调查中,近三分之二的雇主表示他们的组织将在2022年前使用AI。但旧金山的一家客户体验公司吉尼斯的研究显示,有54%的雇主称他们并不担心他们的组织会不道德地使用AI。同样,有52%的员工也不担心员工会滥用AI。

该公司在一份新闻稿中指出,只有四分之一的雇主担心他们将来会“对AI使用的未知性”承担责任。目前,只有23%的雇主制定了书面政策,规定其以道德方式使用AI和机器人。在没有制定政策的雇主中,有40%的雇主说他们的组织应该有相应的政策。

吉尼斯首席市场官Merijn te Booij说:“我们建议公司尽早制定和记录有关AI的政策。”te Booij建议,这些组织应将员工纳入这一活动过程,“以平息所有疑虑,营造信任和透明的环境。”

No.2

再强调一遍:信任

图片

爱尔兰数据科学主管莱茵·布朗在本月的TechRadar(技术雷达)上写道:“信任仍然是业务的基础。”布朗说,如果消费者认为组织不尊重或保护自己的数据,四分之一的人就会采取行动。

布朗说,尽管有诸如欧盟的《一般数据保护条例》等法律,但消费者可能期望透明度能比目前的法规规定更高,特别是在”数据契合AI的情况下。”

他建议提出三个问题,以确定组织是否在道德上使用AI:

1. 你知道人工智能在做什么吗?

2. 你能向客户清楚地解释吗?

3. 当你告诉客户时,他们会开心地回应吗?

No.3

政府提出准则

图片
图片

建立道德的、可信赖的AI,是政府和非政府组织发起的若干计划、指南和研究计划的核心。4月,欧洲委员会基于AI应该合法、道德和稳健的理念,发布了《可信赖的人工智能道德准则》。经合组织在5月份遵循了这一原则,发布了负责任地管理可信赖的人工智能的准则。

欧盟委员会指南针对可信赖的AI提出了七个要求:

1. AI应该赋予人们权力并进行适当的监督。

2.  AI系统应具有弹性和安全性。

3.  AI应保护隐私和数据,并接受适当的数据管理。

4.  数据、系统和AI的业务模型应该是透明的。

5.  AI应避免不公平的偏见。

6.  AI应该是可持续的和环保的。

7.  机制(包括审核性)应到位,以确保AI的责任和对AI的问责机制。

欧盟委员会最近对其准则进行了一项试点测试。其中包括在12月1日前开放的在线调查,以及对部分公共和私营部门组织的采访。

试点阶段的另一个方面是欧盟委员会AI高级专家组对欧盟和国家政策制定者提出的建议。欧洲数字经济与社会事务专员玛丽亚·加布里埃尔表示,尊重隐私,提供透明度并防止歧视的AI“可以成为欧洲企业和整个社会的真正的竞争优势。”

此外,法国,德国和日本都已经筹集了820万美元,用于资助内部高等教育报告中对以人为本的AI的研究。研究的重点是AI的民主化、数据的完整性和AI伦理。

同时,在美国,美国国家标准技术研究院发布了一项计划,旨在开发与AI相关的技术标准和工具。他们说,社会需要这样的标准来促进创新以及公众对AI技术的信任。

为此,美国在AI领域具有领导地位:联邦参与相关计划,负责开发技术标准和相关工具;同时,美国建议在联邦政府机构之间增加与AI标准相关的知识,并推进各联邦机构之间在该领域的协调性。该计划还呼吁促进研究如何将可信度纳入AI标准和工具中。此外,它提倡利用公私伙伴关系来制定标准和工具,并与国际各方合作推动这些标准和工具的发展。

No.4

以大写“T”表示信任

图片

然而,AI伦理发展的各个方面还处于初级阶段。与此同时,该项技术的发展远远领先于任何标准。经合组织的古里亚在伦敦的演讲中说,如果人们拥有工具,而且工具可以被信任,那么人工智能将造福社会。他说:“如果我们对AI应用得当,它就可以帮助我们。”

作者:Tim McCollum

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多