十年踪迹

假新闻与 Facebook

十年踪迹 · 2016-11-20翻译 · 796阅读 原文链接

在 2001 到 2003 年间,Judith Miller 在纽约时报上发表了一批文章,宣称伊拉克有能力和野心生产大规模杀伤性武器。这是假新闻。

回顾当年,我们无法确定 Miller 写的这些故事在美国 2013 年做出发动伊拉克战争的决定中扮演了怎样的角色;与 Miller 相同来源的消息与小布什政府的对外政策团队有很大关联。但是,纽约时报仍然起到了为这一政策背书的作用,尤其是对民主党人,本来他们应该会更坚定地反对小布什的政策。毕竟,纽约时报可不是一些无人问津的地方小报,它是整个美国影响力最大的报刊,它一般被认为具有左倾倾向。Miller 的故事某种程度上吻合报纸的政治倾向。

我们可以把 Miller 的错误和最近关于 Facebook 的假新闻问题联系起来看;Facebook 用自己的故事告诫我们“假新闻是坏的”。然而,我持有不同的观点:新闻假不假没那么重要,由谁来决定什么是新闻才是第一重要的

Facebook 的媒体商业化

聚集理论中,我描述了基于分配的经济权利的消亡导致强势中介的崛起,它们掌控客户体验并将它们的供应商商品化。在 Facebook 的例子里,社交网络之所以兴起,是因为之前存在的线下社会网络在往线上网络转变。考虑到人类本质是社会化的,用户开始将时间花在 Facebook 上阅读、发表观点和获取新闻。

随后,Facebook 吸引了媒体、商业公司以及其他希望获得用户注意的公司进驻。这对于 Facebook 来说很棒:Facebook 提供越多的好内容给用户,用户就花越多的时间上 Facebook,Facebook 将广告展现给用户的机会就越多。而反过来,用户花越多时间上 Facebook,他们阅读其他资讯的时间就越少,这进一步加速了媒体(以及商业公司和其他公司)将内容搬到 Facebook 上,产生 Facebook 受欢迎的良性循环:通过获得用户,Facebook 吸引了内容供应商,内容供应商间接帮助 Facebook 进一步深化运营用户,增加的用户也带给内容供应商更多的收益。

这个过程让 Facebook 的内容供应商,即媒体公司,简化了它们的角色,成为纯粹的供货商。Facebook 根据内容的用户参与度计算出重要程度,让每个角色都各取所需:媒体公司获得了广告,Facebook 获得了分享,而用户从庞大的信息数据库中得到他们想看的内容。当然不是所有内容都能吸引所有用户;这就是算法要做的事情:给用户展现他们感兴趣的内容,不论是婴儿图片、征婚启示、喵星人图片、小测验还是政治新闻。根据 Facebook 的观点,或者坦白说,根据 Facebook 用户的观点,这些内容没什么区别。当然其中也包含有假新闻,顺便提一下:在 Facebook 看来,来自马其顿的新闻和其它内容一样,并没什么特别的,对于推荐算法来说,它们都是内容,仅根据参与程度影响它的推荐量。

媒体和特朗普

现在在媒体上有许多讨论,关于特朗普的当选。观点是如果媒体没有给特朗普价值数十亿美元的免费报道 —— 基本上是媒体报道(而不是付费报道,那种是广告)—— 特朗普永远也当选不了,因此媒体要为特朗普的当选负责。这一看似合理的自我反思,让行业拒绝承认一个更令人不安的现实:如果他们不想要如此的话,媒体不可能做成这件该死的事。

媒体广泛报道特朗普的理由非常简单:这是用户想看到的内容。在媒体商品化的今天,如果像以前那样有编辑特权来决定不报道潜在用户想要看到的内容,就得面对被用户打脸的现实,点击量下降是媒体所不愿承受的。

事实上,假新闻大行其道也是因为同样的原因:因为用户喜闻乐见。这些网站获得流量,因为用户点击并分享它们的文章,因为用户想确认他们心中已经相信是真实的内容(尽管实际上是假的)。确认偏差(即人们更容易相信他们愿意相信的内容 —— 译者注)是一种毒品 —— 正如 Techcrunch 的记者 Kim-Mai Cutler 在 twitter 上如此贴切地说,这是一种商业模式的原罪。

为什么 Facebook 应该删除假新闻

所以现在我们回到关于如何处理假新闻的问题。也许纽约时报 的 Zeynep Tufekci 的观点最能代表一般大众的情绪:Facebook 应当消除假新闻以及取消给人们推荐他们心中已经认同的观点的新闻的倾向。Tufekci 写道:

Mark Zuckerberg, Facebook 的老板,认为Facebook 的假新闻影响选举是个疯狂的想法,因为那些是非常少量的内容,对选举几乎没有影响。他的这种不过脑的坚持,认为他的公司对人们做出决定没有影响的行为,实际上已经对美国和全世界的民主带来了真正的损害……

Facebook 影响政治话语的问题不仅限于传播假新闻。它还有回音室效应。它的推荐算法选择哪些资讯更新出现在用户阅读列表的前面以及哪些被顶到后面去。人类已经倾向于聚集在志同道合的人之中,寻找证实他们偏见的消息。Facebook 的研究显示这家公司的算法通过优先更新用户更愿意看到的内容而鼓励了这一行为。

Tufekci 给 Facebook 提供了一些建议,包括与外部研究人员分享数据从而更好地理解错误消息如何传播,以及应该如何对付过虑气泡(即智能推荐算法根据你的兴趣推荐内容,像一个泡泡将你包裹起来,把你和其他未推荐内容隔离起来——译者注),以更积极地行动,消除假新闻,就像处理作弊和其他垃圾内容那样,还包括重新启用人类编辑以及重新调整算法来有利于新闻平衡而不是一味通过参与度来推荐。

为什么 Facebook 不应该这么做

从表面上看,这一切都很合理,但是实际上,Tufekci 的建议有点自以为是。

首先,Facebook 没有动机去做这些事;当时 Facebook 否决了这些提议,根据 Gizmodo 的报道,Facebook 搁置了对新闻推荐算法的改变,这一改变本可能消除假消息,Facebook 的解释是如果那么做,会对右翼站点造成不公平的影响,事实上 Facebook 非常重视在各方观点中保持中立;其他任何行为都会导致用户流失,而这对社交网络来说是不能承受之重。

此外,除了聚焦于参与度之外,任何偏离这一准则的行为都一定会减少用户在 Facebook 上所花费的时间,而在这里 Tufekci 错误地认为这是可接受的,因为他完全没有考虑“竞争对手”。事实上,Facebook 在很长一段时间内处于被挑战的地位上:Snapchat 正在从 Facebook 最有价值的人群中获取关注,尽管新闻资讯的广告变现能力已经接近饱和,Snapchat 依然在最具有价值的科技消费领域威胁着 Facebook:那是以电视为中心的品牌广告领域。

而且,还有更根本的问题:你如何决定哪些新闻是假新闻?准则是什么?而也许最关键的是,谁来决定?认为一些假新闻存在于其他海量内容中,从而得对 Facebook 内容进行编辑并不仅是一个简单的后勤噩梦,而且,至少当涉及到潜在的不良后果时,这个问题远没有它表面上看来那么简单。

实际情况比过滤气泡问题要复杂得多:从指责 Facebook 通过参与度驱动的二阶效应来影响它的用户的信息流,到坚持由于政治原因让平台积极干预用户看到的内容,这两者之间存在巨大的鸿沟。这不是关于建设更好社会的目标和两党争斗的对立,毕竟,支持者认为他们的目标也是建设更好的社会。事实上,如果整个值得关注的点是,Facebook 在其用户的新闻消费中扮演的重要角色,那么更大的恐惧应该是如果坚持人工干预的话,如何防止有人积极地滥用干预者这一角色为自己的利益服务。

我明白为什么自上而下的解决方案是诱人的:假新闻和过滤气泡是摆在我们眼前的问题,如果让 Facebook 修复它们难道不是更好吗?问题是这得假设动用自上而下的权力来做这一切的某人会正好与我的观点相同。那么,如果他们不呢?只要看一下我们现在的政治处境:那些担心特朗普的人,也必须承认的一个事实是,行政部门的权力在过去几十年里已经急剧扩大;我们将巨大的责任和权力交到一个人手中,而忘记了权力和责任交出容易,收回难

因此,如果 Facebook 真的开始主动干预新闻内容,我会更加担忧;正如我上周指出的,我越来越担心 Zuckerberg 的乌托邦式的观点,要知道,从影响世界到控制世界只有一步之遥。正如政府监管有坏处:当谈到暴政的时候,我们最重要的自由是言论自由,而把一个官员 —— 向总统汇报的人 —— 置于负责监管人们所见内容的位置上,是与这种自由精神背道而驰的。

要牢记的关键一点是假新闻的实际影响是取决于谁传播它:当然,那些马其顿的新闻故事不好,但是它们起作用了,尽管不怎么好,有些人却愿意相信。对比 Miller 在纽约时报的故事:由于纽约时报具有公信力,许多人因此改变了他们的观点,导致了一场到今天影响还没能完全消除的灾难。考虑到这一点,让 Facebook 人工干预新闻结果的潜在风险几乎无法想象。

自由和懒惰

也许有一些折衷方案:对于有些明显是假的新闻来源,Facebook 可以简单地将它们拉黑,更理想的情况,Facebook 可以透明地给出它们做了什么,以及为什么被拉黑的理由。而更进一步,Facebook 在不损害其竞争地位的情况下,可以将部分数据共享给外部研究者,它应该这样做。Facebook 也应该提供更多的配置选项给用户来控制他们的信息流,如果希望避免过滤起泡,可以通过修改配置来做到。

其实,你和我都知道,很少有用户会困扰。而且,表面上看,让许多 Facebook 的批评者最困扰的是,他们觉得如果用户不寻求“正确的”新闻来源,那么,应该有人让他们看到。这听起来很伟大 —— 而且毫无问题,是赢得选举的一个更方便的解决方案,而不必实际做出必要的改变 —— 直到你想起来,你刚刚给了委托人如此大的权力,而他可能不同意你的意见,而人为控制人们所看到的内容是极权主义的标志。

让我总结一下:我很清楚 Facebook 的影响有一定的问题;我特别担心的是,我们为了偷懒,用部落的思路来解决这一问题,影响选举的部分原因是由于如上所述的过滤气泡效应所致(这是为什么 Twitter 必须存在的原因之一)。但是解决办法不是在互联网添加人为把关;要解决这一问题必须要通过互联网的力量,而事实上,我们每一个人,如果我们想要,是可以获得比以前任何时候更多的信息和资源真相的。如果我们想要,我们也可以有更多的方法来接触、理解和说服那些与我们意见相左的人。是的,这比要求 Zuckerberg 改变人们看到的内容有更多的工作要做,但是因为懒惰而放弃自由从未有过好结果

相关文章