编者按:美国总统选举结果导致的假新闻问题仍在发酵。美国对此掀起了一场大讨论,有观点认为Facebook应该承担起好坏信息筛选的责任,也有观点认为Facebook应该保持中立。但Tim O'Reilly认为,在这个信息无限、注意力有限而算法当道的时代里,上述有关媒体责任的观点都犯了一个根本性的错误。事实是,试图操纵系统的假新闻和坏网站问题已经变成行业公敌——公司应该共享数据和最佳实践来进行斗争。 自从美国选举以来,引起的非议就一直不断,其中有很多的指责是针对Facebook的。批评认为,Facebook的新闻流算法在传播错误信息以及放大两极分化方面扮演了主要角色。其中一些文章批评得很有见地,有些替Facebook的辩词也经得起推敲,但有的则充斥着错误信息和极端化,为的是能让自己的文章能出现在每个人的新闻流顶部。但依我之见,在思考处在算法时代的媒体时,所有人都犯了一个根本性的错误。 我们可以看看Jessica Lessin在《The Information》中提出的观点:
我的回应:Facebook早就已经跨过这条河了。一旦他们开始对新闻流进行干预(curate)而不是简单地当作时间线看待时,他们就已经把自己摆在了大家所看到东西的中介的位置。他们变成了看门人和向导。这不是不可能的位置。这是他们的工作。所以,他们最好把擅长这件事情摆在优先位置。 但是那些强烈要求Facebook承担好坏信息筛选责任的人也搞错了。比方说,Timothy B. Lee在Vox写道:
新闻流策划不是新员工和独立承包商干的事情,在这点上Lee是对的。但他说这份工作应该由“有经验的资深编辑团队”来干就不对了。这应该是Facebook算法团队里面最聪明的头脑来干的事情! Lee还说,Facebook雇佣人工编辑来评估故事和编写头条没有问题。但问题恰恰就在这里。 就像司机按照GPS引导开过一条不存在的桥一样,Jessica Lessin和Timothy Lee手上拿的都是过时的世界地图。在这张旧地图里面,算法是由人来看管的,在特殊情况下后者会进行干预,从而弥补它们的错误。Lessin说得很对,这是一个巨大的滑坡谬误。 Jessica说:
但是另一种方案就有一个现成的好证据,Facebook一直都想努力模仿这种做法。 Google长久以来就已证明,引导大家看到更好结果与不妨碍任何人的言论自由,这两者是可以兼得的。跟Facebook一样,他们每天也都面临着在成千上万个相互竞争的声音当中哪一个应该置顶的艰难抉择。Google之所以成立,是因为这个独特洞察,即每一个链接都是一张选票,而那些出现已经很久的声誉好的引用的链接,它们的价值应该比其他链接更高,这个就是Google最初用来排沙简金的工具。但这些年来,Google已经设计了许多信号(没有上千也有好几百了)来确定哪一个链接的价值最高。 在这20年的大部分时间里,Google一直在不知疲倦地完成一件艰巨的任务——在任何人都可以创作的内容当中用算法编排出新闻源,然后选出赢家和输家。关键是:他们的做法并没有对页面的实际内容进行判断。“真实的信号”是那些元数据而不是数据。 在这个信息无限而注意力有限的世界里,任何人想要理解一家21世纪公司怎么进行编辑内容管理的问题都应该好好研究一下Google搜索质量团队的历史和最佳实践,这些早已经记录在案并且广为分享。这里就有一个前Google web垃圾内容处理团队负责人Matt Cutts提供的视频。Google教会了我们一点,那就是通过改进算法来提供更好的搜索结果是一场持久战,因为总有人想操纵系统。但他们还教会了我们,移除特定结果的人工干预并不是正确的做法。 Google和Facebook都在不断地设计和测试新算法。是的,这里面也会牵涉到人的判断。但这种判断只是应用到系统的设计而不是特定结果上。为搜索或者新闻流设计有效算法,其更多的共同点是在搭载搜索或者新闻的飞机的设计方面,或者能让它飞得比旧的更快的新飞机设计方面,而不是决定飞机飞到哪里去方面。 要想改善文章的“真实值”,并不能像该问题正反两方的某些评论员所认为那样,靠人工干预来剔除坏结果,而只能去发现能导致好结果置顶的信号。 问题是怎么来决定什么才是“好结果”。 如果是让飞机能飞,目标就很简单——能在空中保持姿态,能飞得更快,消耗燃料更少——设计变更可以用期望结果来进行严格测试。搜索有很多类似的问题——比如找到最好的价格,或者某主题最权威的信息来源,或者特定文档——以及许多界定远没有那么严格的东西。当用户得到自己想要的东西时,用户自然就会很高兴,同样地,一般广告商也会很高兴。搜索就是这样,用户对找到答案然后继续自己生活的渴望与“为他们提供最好结果”一般都是一致的。不幸的是,Facebook对“互动”的强调可能却会导致错误的方向。对Facebook收入最有利的未必就是对用户最有利的。 即便是在航空动力学或者飞行工程这样的物理系统,往往对测试或者修正也会有隐含的假设。有一个例子非常著名,它决定了航空航天业的未来,需要我们对如何处置金属疲劳具备全新的理解。德克萨斯大学的Michael Marder教授是这么介绍的:
算法设计的精髓不是消除所有的错误,而是要让结果在面对错误时具有鲁棒性。哈维兰的思路是把材料做得足够坚韧可抵挡任何裂隙和金属疲劳,结果企图徒劳无功,而波音则意识到正确的办法应该是在设计上要容忍裂隙,但要防止扩散而导致灾难性故障。这也是Facebook面临的挑战。 从Facebook对 Timothy Lee的回应可以看出,他们是理解自己所面临的挑战的:
要提出的关键问题不是Facebook该不该对新闻流进编撰,而是怎样编撰的问题。他们要做的事情显然还有很多。但我认为他们对这个问题是非常认真的。我希望他们能取得突破,不必被迫在商业模式和为用户提供更好体验之间做出选择。如果不能的话,恐怕就算他们的意图是好的的,但最终还是商业模式占上风。他们的目标是想办法让飞机飞得更快,但同时要保证安全。 好的一面:寻找兼顾事实和互动的可能性会让Facebook获得一些非凡的发现。迎难而上会让你变得更好。 但是答案不应该是让Facebook引入记者来排沙简金。而是要像他们如此成功地领悟出导致更高互动性的功能一样,弄清楚如何开发出兼顾“事实”与流行度的算法。 而且他们还得问问自己,他们究竟是哈维兰还是波音。 更新 我把文章发给了Google前web垃圾内容处理团队负责人Matt Cutts。他领导了Google在2011年的Panda搜索算法更新,这次更新针对的正是低质量的“内容农场”的冒头。我想他的经验对现在这场讨论是非常重要的。当时的Google跟今天的Facebook很相似,也有很多文章谈Google的失败。(我也是其中之一,说Google正在“输掉对垃圾内容制造者的战争。”)就像今天的Facebook一样,Google已经在全力以赴应对这些担忧,但是在让Google认真对待该问题的事情上,公众反馈仍然扮演着重要角色。 Matt回应道:
正如前面所指出那样,试图操纵系统的假新闻和坏网站问题是一场持久战。Google目前也在努力应对一大波假新闻网站的问题。你可以通过Aza Raskin的这条推特看到一些假Google新闻搜索结果的例子。这是个全行业性的问题,不仅仅是Facebook一家的,大家都应该共享数据和最佳实践来与之作斗争。 |
|
来自: CCI16 > 《Technology》