分享

你以为可靠的搜索结果,也许都是算法的偏见!

 正心正举 2021-04-07

文/单广荻   正心正举特约作者

主播/啄二少

“人工智能”在1956年才正式作为一个学术概念被提出。在这不算悠久的几十年发展历程中出现了许多次转折点,但直到2017年,《华尔街日报》、《福布斯》、《财富》等刊物才认为“人工智能元年”真正到来。

在这一年里:

电商平台推出了难辨真伪的智能客服;

自动驾驶汽车开始路测,不久之后开上了北京五环;

围棋算法AlphaGo大杀四方,独孤求败。

小度机器人(百度)和Han(Hanson Robotics)在GIC 2017上畅聊

随着人工智能领域大量产出了影响人类社会的产品,这个之前被科研人员和工程师精心教导的“孩子”,突然完全暴露于公众视野之中,被无数聚光灯晃得睁不开眼睛。在全民讨论人工智能的时代,人工智能也出现了各种各样的问题。

当我们评价一个人时,不仅会看到他的金钱或权势,更会关注其思想。然而人工智能在思想上却出了问题。

决定人工智能思想的,是其背后的智能算法。而算法,是有偏见的。

01

数据分布的差异,算法的“地域黑”

海量的数据,比如图片的信息、语言文字的信息、人类在互联网上的各种行为,是智能算法能够奏效的必要条件。

算法通过处理和学习这些数据中的知识,让笨拙的只会执行命令的机器成为了智能体。

意大利经济学家帕累托发现:任何一组东西中,最重要的只占总体的一小部分,约20%。其余80%尽管是多数的,却是次要的。

这个被称为“二八定律”的法则同样适用于训练人工智能的数据上:相对小的一部分用户提供了大量的数据,而大多数用户只为训练数据的构建贡献了很小的作用。

于是,贡献了大量数据的用户往往能得到智能算法更好的服务,而其他用户就会被算法差别对待了。

“定位算法”是个很好的例子。算法公司可以根据用户手机提供的一些信息实现定位。

这种定位由于不需要卫星,所以即使在室内甚至地下无法接收卫星信号时,也能稳定快速地定位。

然而这种算法却非常依赖区域数据,在繁华都市中,区域地理数据很多,定位算法可以学习到足够多的知识,自然能给用户准确的定位。

但在一些郊区或乡县,由于数据不够多,定位往往会发生几百米甚至几公里的偏差。

不仅是地理区域数据,各类数据的全面匮乏令智能算法在三四线小城的表现较大都市有着天壤之别。

设想你掏出手机,打算搜索一家味道不错的餐馆,然而软件上却没有几条能令人提起兴致的信息。

勉强选择了一家,准备叫一辆网约车,然而软件却把你定位到了几公里外的一个陌生地点。

这一切不好的体验,都是因为你处于一个数据不足的小地方。

算法的这种因地域而产生的偏见,可比那些在网络上那些“地域黑”的网民们现实并冷酷得多。

网络上流传的美国“地域黑”

02

自动学习,算法的“原罪”

基督教认为:“人生而有罪,人性本恶,人生就是赎罪的过程。”

而我国自古就有“人之初,性本善”的说法。

在人工智能身上,这种争议依然存在:智能算法在没有人工干预的情况下自动学习得出的结果,往往会令人感到不适甚至带有歧视意味。

谷歌就因其算法具有性别歧视色彩而惹出了争议。

网民们发现,谷歌在推送广告时,女性用户往往会收到薪酬低难度小的招工广告,而男性收到的则是富有挑战同时报酬丰厚的工作广告。

在谷歌通过人工智能算法驱动的翻译系统上,当输入土耳其语“O bir hemşire”(土耳其语中的“O”是不区分性别的第三人称代词,通指他和她。)谷歌自动翻译为“她是一名护士”。

而输入土耳其语“O bir doktor”,翻译结果为“他是一名医生”。即无理由地默认医生为男性,护士为女性的翻译结果令许多女权主义者十分不满。

男女平等

人类产生的数据是人工智能算法最直接的课本。

由于人类社会的偏见与歧视还没有完全消除,人类产生的数据中自然包含着这些错误的知识和观点。

自动化的算法没有能力在道德层面上对数据进行过滤,得出来的带有偏见的运行机制,这就是人工智能的“原罪”。

如今越来越多的企业和行政机关都投入资本集成自动化的智能算法辅助工作,如果算法不解决这一问题,那么其大量的应用虽然会带来劳动力的解放和工作效率的提升,但同时会引发众多因不公和歧视带来的社会问题,甚至会使社会矛盾愈演愈烈。

03

“电车难题”,算法的伦理

在不久的将来,人工智能的算法不断提升,基于智能算法的应用纷纷落地,自动驾驶汽车便是其中之一。

在一个周末的早晨,王先生带着一家老小开车郊游。因为自动驾驶汽车的全面普及,结合智能交通调度系统,市区原先拥堵的马路再也没有了匪夷所思的违规行驶,没有了野蛮粗鲁的并道,也没有了新人司机随时可能出现的半路熄火。

每个人都可以通过自动驾驶汽车在最高效的交通系统中以最快的速度到达目的地。

小王和家人们享受着智能算法带来的便捷,他们愉快地驶上了高速公路。

对面驶来了一辆自动驾驶货车,货车司机因为彻底摆脱了疲劳驾驶的困扰而显得礼貌和善,他向对面驶来的小王投来了善意的微笑。

突然,在小王的车前出现了一个横穿马路到对面路边村子去的老妇。车速极快的情况下小王来不及停车。

如果避开老妇,小王和货车将会相撞,必然车毁人亡。如果不避开老妇,汽车会保护小王和家人们平安无事,但老妇却绝无存活的可能。

小王在突变中感到绝望和无能为力,因为他的面前空空荡荡,自动驾驶汽车并没有方向盘和油门刹车,在这决定生死的瞬间,拥有决定权的不是他,而是智能算法。

这是智能驾驶汽车概念提出之后,哲学家和伦理学家们提出的一个场景假设。

那么算法究竟应该做出怎样的选择呢?这个问题,连算法的老师:人类,也没有想清楚。

伦理学领域有一个著名的思想实验叫“电车难题”,其大意为:五个无辜的人被绑在电车轨道上。一辆失控的电车朝他们驶来。幸运的是,你可以拉一个拉杆,让电车变轨。但在另一个电车轨道上也绑了一个人。

道德主义和功利主义自问题提出至今争吵了近六十年,这个问题也在哲学、伦理学、心理学等领域引发了各类讨论,但没有人可以给出令社会上绝大多数人信服的结论。

“电车难题”:挡在自动驾驶上路前的一条鸿沟

如果说思想实验是学者的一个空想的话,那么自动驾驶的“电车难题”却是实实在在摆在面前的。

当做决定者从一个人变为了自动驾驶汽车的算法,它将决定是拯救小王一家人还是拯救老妇人一个人。

学者将这个问题抛给算法研发公司,有些公司公然表态,虽然态度不一,但都同样引起了舆论的一阵哗然。

显然将一个人类无法解决的难题抛给算法,责令其做出毫无偏向性的最合适的答案,也是希望渺茫的。

04

结束

“图灵测试”是测试机器是否具备人类智能的方法之一。

一个人将会向机器发问,如果人类无法通过回答区分出回答者是人还是机器,那么就可以说明机器具备了人类的智慧,真正成为了人工智能。

希望当这一天终于到来的时候,当科研人员揭开了挡在人工智能前的面纱时,我们会看到这个欺骗了我们所有人、通过了面试的机器,是个充满智慧的、有个性有温度的个体,而不是一个集人类所有丑陋的习惯、邪恶的想法和愚蠢的偏见于一身的怪物。

·end·

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多