分享

谷歌图片搜索暴露出的社会偏见

 简心渡惑 2015-01-06

谷歌的目标本是整合全世界的信息,但是在这个过程中,它却无意间扮演了映射我们社会成见和标准的一面镜子。

谷歌在网络上散布了百万计的“蜘蛛机器人”昼夜不停地浏览网页并存储数据用于索引。在谷歌搜索里,网站是基于相关度来进行排名的,而相关度则是由链接到网络上数以亿计的网页的链接的数量来确定。越多的引用,意味着一个来源越真实越权威。

2001年7月,谷歌引入了图像搜索技术,对检索内容可视化材料的相关度顺序进行排名。图片可以通过出现在高流量网站上的被检索关键词附近,以及其他约200个条件因素而获取相关度。

谷歌声称这种搜索算法的功能在于——获取你的问题,然后把它转化成你要的答案。但不管这个算法过程如何,这些答案都显得并不那么客观。

“搜索引擎如会所保镖一般运作,按照等级划分对信息能否通过不断地进行排除和纳入”,网络文化研究所的研究员Miriam Rasch分析道,“他们的算法决定了我们在网络上会看到哪些内容,他们的无所不在从根本上固化了我们的思维以及接触这个世界的方式。”

每天我们都看到它在谷歌上运作,先前有研究指出谷歌的搜索引擎可以暴露出“社会种族偏见”——与黑人有关的名字总是更可能检索出和犯罪活动相关的结果。

网页搜索把用户导向了在网络上的答案,图片搜索反馈的数据源图片墙提供的“答案”通常本身都已经足够多了。这些图片共同传达了柏拉图理想理论中对“搜索”的定义。在某些情况下,可以说它们反映了美国网络浏览公众平台的思维定势、偏见、态度和理想。

看看“美人”的搜索结果的第一页(编者注:所有的图片搜索都在匿名模式下操作以避免受到之前搜索历史的影响)

根据谷歌的算法,“美人”的最佳匹配都是年轻、苗条,有着白色肌肤和浅棕色头发的女性,身边有花的话则会更容易被检索到。

“美人”反馈的结果表明了在绝大多数情况下我们对于女性外貌的关注是大于男性的。而很多这些“美人”的图片呈现出女性正在化妆的现象似乎展示了这种观点的根深蒂固——女性不得不通过改造自己去获得美貌。

下面是“强大的人”的搜索结果:

可以预知你得到的是奥巴马和普京的图片,但是美国众议员坎托,迈克尔乔丹同样也出现了,但是并没有女性的身影,你必须要把搜索结果下拉一段时间才能看到第一位女性。

对职业的搜索结果是最具有揭示性的搜索,“医生”基本都是男性白人:

同样,“工程师”也是:

“执行官”也是如此,尽管这里出现的女性要比之前的搜索多了一些:

有些结果则更加的差别微小,例如“老师”的结果得到的基本完全是女性:

而“教授”则基本是男性:

图片搜索同样表明隐晦的诸如“暴徒”这样的词汇通常都会运用到黑人的身上。

这件事的意义在于——每天有将近35亿的谷歌检索,其中65%的人是通过视觉化的结果获取信息。谷歌对于我们所接触的信息有着巨大的影响,图片搜索则是这种影响中举足轻重的一个部分,甚至连学术界都通过谷歌图片搜索来了解同行的研究情况。

图片搜索并不仅仅是一个中立的信息渠道,它选择的结果展示方式构建了社会的权威,谷歌的算法并非出自上帝之手,所有的算法都是人类所为。谷歌声称自己单在2012年就对搜索的算法进行了665次修改。(谷歌并没有回应对图片搜索引擎下的算法的疑问)

隐藏在上面图片墙后面的意义超越了谷歌工程师所设计的方程式,所有这些图片的创建、上传、发布和分类都是出自并非在谷歌工作的人们,即我们自己。这些图片汇集成语义学上的独立单元就是我们共有的态度和偏见的一种表现。当它最终在不经意间潜移默化地形成了我们共同表达的文化和社会成见的时候,谷歌引擎正在真正的影响着人们认知自己和看待别人的方式。



    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多