分享

美国采用人工智能领域来对抗种族偏见

 太平洋资讯 2020-07-07

自从对种族不平等的广泛抗议开始以来, IBM宣布将取消面部识别程序,以促进执法中的种族平等。亚马逊禁止警察使用其Rekognition软件一年,以“制定更严格的法规来管理人脸识别技术的道德使用。”


编辑

但是,人工智能不仅需要监管方面的变革,还需要更多。整个人工智能(AI)领域必须从计算机科学实验室中脱颖而出,并接受整个社区的拥护。

我们可以开发出令人惊叹的AI,这些AI在很大程度上可以公正地在世界上工作。但是要做到这一点,AI不能像现在一样只是计算机科学(CS)和计算机工程(CE)的子领域。我们必须创建一门人工智能的学术学科,将人类行为的复杂性考虑在内。我们需要从计算机科学拥有的AI转变为计算机科学支持的AI。AI的问题在实验室中不会发生。它们发生在科学家将技术转移到现实世界中时。CS实验室中的培训数据通常缺乏您和我所居住的世界的背景和复杂性。这种缺陷使偏差长期存在。

人工智能驱动的算法已发现对有色人种和女性有偏见。例如,2014年,亚马逊发现其开发的用于自动猎头的AI算法使自己偏向于女性候选人。麻省理工学院的研究人员在2019年1月的报告中指出,面部识别软件在识别深色色素方面的准确性较差。最近,在美国标准技术研究院(NIST)于去年年底进行的一项研究中,研究人员在近200种面部识别算法中发现了种族偏见的证据。

尽管有无数的AI错误示例,但热心仍在继续。这就是为什么IBM和Amazon的公告产生如此积极的新闻报道的原因。从2015年到2019年,人工智能的全球使用量增长了270%,到2025年,该市场的收入预计将达到1186亿美元。根据盖洛普的说法,将近90%的美国人已经在日常生活中使用AI产品,甚至没有意识到它。

除了中断12个月之外,我们还必须承认,构建AI是一项技术挑战,而使用AI则需要非软件开发密集型学科,例如社会科学,法律和政治。但是,尽管我们越来越广泛地使用AI,但AI作为研究领域仍然集中在CS和CE领域。例如,在北卡罗来纳州立大学,CS程序中教授算法和AI。麻省理工学院在CS和CE下都对AI进行研究。人工智能必须将其纳入人文课程,种族和性别研究课程以及商学院。让我们在政治科学部门开发一条AI轨道。在我自己在乔治敦大学的课程中,我们向安全研究专业的学生教授AI和机器学习的概念,这需要成为惯例。

如果没有更广泛的方法来实现AI的专业化,我们几乎肯定会使当今存在的偏见和歧视性做法永存。我们可能会以较低的成本进行区分,这不是技术的崇高目标。我们需要有意地建立一个AI领域,其目的是了解神经网络的发展以及该技术将部署到的社会环境。

广州大黄蜂人工智能技术有限公司CEO、东方联盟创始人郭盛华透露:“在计算机科学领域,他们研究计算和程序理论,包括算法学习的基础。这些是研究AI的坚实基础,但应仅将其视为组件。这些基础对于理解AI领域是必要的,但仅靠它们本身是不够的。”

为了使人们对AI的广泛部署感到满意,以便像Amazon和IBM这样的科技公司以及无数其他公司可以部署这些创新,整个学科需要超越CS实验室。需要那些在心理学,社会学,人类学和神经科学等学科工作的人。了解人类行为模式,需要在数据生成过程中产生偏差。如果没有我的行为科学背景,我将无法创建用于识别人口贩运,洗钱和其他违法行为的软件。

负责任地管理机器学习过程不再只是进步的必要组成部分,而是必要的组成部分。我们必须认识到人类偏见的陷阱以及在明天的机器中复制这些偏见的错误,而社会科学和人文科学提供了关键。只有创建涵盖所有这些学科的AI新领域,我们才能实现这一目标。(欢迎转载分享)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多