转载

谷歌也未必可靠:搜索算法中的道德争论

谷歌也未必可靠:搜索算法中的道德争论

  英文原文:Should search algorithms be moral? A conversation with Google’s in-house philosopher

  TECH2IPO/创见陈铮编译,译文创见首发,转载请注明出处

  当你心存疑问时,首先会想到去哪里寻找答案呢?没有错,当然是谷歌了。

  当我们寻找问题答案时,总是希望搜索引擎能够提供最好、最充分、最具参考价值的信息。有些人对于搜索结果的信任度甚至超过了医生的专业建议。根据耶鲁大学 2015 年的研究显示,当人们进入「搜索模式」时,无论有没有得到所要寻找的结果,总会感觉自己变得更加聪明了。

  当你在谷歌搜索「恐龙为什么会灭绝」时,出现在首页前几位的其中一个结果来自于一个叫做「创世纪的解答」的网站。该网站提供的解释是「圣经为我们提供了一个框架去理解恐龙几千年的生活历史,其中就包括了它们生活的时代以及是什么让它们灭绝的原因」。如果你继续将搜索结果网页下拉,就会发现一系列针对这种用圣经解释恐龙命运进行反驳的言辞激烈的文章,以及对于这些反驳文章进行回击的另一些文章。当你一直拉到搜索结果页面的最底部,一个容易被遗忘的不起眼角落里,才终于看到了关于恐龙灭绝的科学解释——一个十公里宽的小行星撞击了墨西哥湾导致了恐龙灭绝。

  作为「谷歌哲学家」的卢奇亚诺·弗洛瑞迪(Luciano Floridi)认为无需对这个结果大惊小怪。弗洛瑞迪是牛津大学的信息哲学与伦理学教授,也是帮助谷歌执行欧盟最高法院所颁布的「被遗忘权」法令(译者注:允许用户从搜索引擎结果页面中删除自己的名字或者相关历史事件,支持普通公民享有「被遗忘权」)伦理顾问委员会成员之一。当我将关于恐龙的谷歌搜索结果一事告诉弗洛瑞迪时,他立马表示创世论者对于恐龙灭绝的观点是「极其荒唐」的。但是即便弗洛瑞迪对于恐龙灭绝一事有着来自科学的信念,他仍然表示自己不会提议谷歌删除这些关于恐龙的基于宗教解释的答案。

  「你可以想象,我作为一个哲学家是多么的想要追寻真理,」弗洛瑞迪表明了自己的心声,「但是谷歌是一家商业公司,在由谁管理事实真相这一件事上我们必须小心谨慎。如果你给予一家私人公司过多的权力,这将会是非常危险的。无论在今日还是未来,关于什么是事实真相一事都不应该由谷歌公司来做出判断。」

  搜索引擎并不热心追求真相

  谷歌也未必可靠:搜索算法中的道德争论

  谷歌从来没有对外声明自己将提供最好的参考信息,谷歌的搜索算法更为注重的是效率:为用户提供他们可能最想要找到的结果,并且让他们尽可能快地从谷歌去往结果网站。为了达到这个目的,谷歌会极尽所能地收集并分析我们的数据,为我们提供最有可能点击进去进一步阅读的内容。

  从算法的角度来看,当我们针对恐龙灭绝原因进行搜索时,「创世论的解答」这一网页是谷歌所能提供的最优结果。从该网页中文章标题来看,它与搜索的问题只有一字之差。更别提其背后隐含的意义,从 1982 年开始盖洛普公司每年会针对美国人做调查,从其调查结果来看,大多数美国人是相信神创论的。因此可想而知,以神创论来解答恐龙为什么灭绝是一个美国人民喜闻乐见的方式。

  相比之下,如果你搜索「恐龙都去哪里了?」,谷歌的算法将会向你推荐一首非常与之呼应的儿歌,它的开场白如下:

6500 万年之前

在那尤卡半岛的墨西哥湾

一颗十英里宽的小行星撞了上来

这就是 6500 万年前发生的事啊

  换句话说,像谷歌这样的搜索引擎,包括 Bing 和 DuckDuckGo,它们对于什么是事实真相其实并不关心。

  与事实真相不符的解释在我们现有的定义中可以统称其为胡扯。「胡扯不同于事实,但是也不能简单地判定其就是在撒谎,我们只能说它们并不代表真相,」普林斯顿大学的哲学教授 Harry Frankfurt 早在 1986 年发表的论文中就做出了解释,「胡扯的说法缺乏与事实的必要联系,它们也不关心什么是真相,这就是胡扯的精髓所在。」

  按照这个标准来看,即使是在最好的搜索环境中,排除掉搜索引擎 SEO 规则以及竞争对手相互之间的打压,谷歌的搜索引擎其实也就是胡扯的引擎。搜索引擎本身就是一个扯淡的存在。

  然而在用户的心中,我们仍然会将搜索引擎当成是一种挖掘真相的工具。在 2012 年 2 月美国皮尤做出的「互联网与美国人生活」调查中显示,73% 的搜索引擎用户相信他们从搜索引擎中找到的绝大多数信息是准确且值得信赖的。

  根据路透社的今年早些时候的报道,在针对 12 个国家的调查中显示,「搜索引擎」已经越来越成为了人们在查找新闻时的起点,在意大利、日本、德国以及西班牙这些国家中,这种情况尤其普遍。根据 2007 年发表在计算机专业期刊上的一篇论文显示,使用搜索引擎的人们对于结果页面中显示靠前的信息更为偏信,这种信任不需要什么理由支撑。

  来自「甜点式阅读」的诱惑  

谷歌也未必可靠:搜索算法中的道德争论

  谷歌的搜索团队以及其他搜索引擎都在试图改进自己的工作,让自己的搜索结果更值得参考,不要辜负用户的信任。

  在 2015 年 5 月,谷歌的研究团队发布了新的搜索引擎信源判断标准,谷歌将尝试根据网站内容的准确度这一因素来判定站点的搜索引擎排名 (即 Knowledge-Based Trust 项目, 以下简写为 KBT)。在这个新的搜索引擎标准中,谷歌可以从一些被选网站中提取事实,并且将这些事实与「谷歌知识库」进行对比,以此计算出信源的可靠程度。

  谷歌首席新闻官 Richard Gingras 与伦理学家 Sally Lehrman 还共同倡议了另一个名为「Trust Project」的项目,该项目启动于 2014 年 10 月份。该项目旨在用高标准严要求的新闻报道标准来分辨新闻报道的内容质量,让 Google News 这样的新闻聚合器可以更容易地将那些质量最好的新闻报道呈现在读者面前。

  不过到目前为止,谷歌的这些措施能否生效以及在多大程度上得以推广出去还有待进一步观察。其实还有一个更为明显的问题存在于搜索引擎当中,根据纽约时报今年 7 月份的报道,机器学习算法被人类的行为所左右,它将在搜索结果中反应出人类自身抱有的偏见。换句话说,是我们用户本身造成了搜索引擎结果的信用问题。

  作为搜索引擎的用户,我们可能都坚信自己想要找到的是最好、最可信的消息,然而我们的点击行为却反映出了心中的另一面。来自 Facebook 内容实验室的 Stephen Levy 将这个搜索用户心口不一的现象解释为对「甜点式阅读」的偏好:

  「很多关心自己体重的人都知道每天吃甜甜圈是不健康的,然而当美味甜甜圈就摆在你面前的时候,还管他三七二十一呢。」

  用户在搜索引擎中的表现也是一样的,我们更喜欢那些甜甜圈一般的好吃易消化的信息——点击进去能够充分满足阅读欲望,这是难以抗拒的魔力。相比那些可能要花费我们一个小时去理解消化、反映出了更为准确的信息且关注细节的精品文章,甜点式阅读更易入口。

谷歌也未必可靠:搜索算法中的道德争论

  有一些媒体在 Facebook 上制造了大量耸动的甜点式文章,于此同时那些内容严肃认真且赢得了大量行业奖项的新闻报道,比如调查式报道,却很难在社交媒体上存活壮大。「在 20 世纪最后 30 年里曾经风靡一时的调查报道其黄金时期已经过去了,现在它受到了来自数字媒体的冲击,面临着受众的巨大变化,随着纸质媒体订阅数的下降,广告收入也随之大幅度下滑无法,因而传统媒体无法提供更多的调查报道。」为《华盛顿邮报》报道过水门事件的 Leonard Downie Jr 在 2012 年水门事件 40 周年时曾经这样写道。

  长久以来在文化评论人看来,只有调查报道的蓬勃发展才能促进社会的进步,错综复杂的社会问题要通过调查报道的形式被公开于众且得到广泛的争论。人们经常会羡慕那些能够静下心来潜心阅读严肃内容的朋友们,我们也会心怀愧疚地假装自己也进行了一场严肃阅读(其实还是沉浸在八卦消息当中)。这种对于甜点式阅读的需要根植于人们心中,这使得我们阅读的八卦短文类报道的数量常常要超出自己的想象。

  谁来决定我们能否摄入健康的信息大餐?

  综上所述,到底像 Facebook 与谷歌这样的掌控了大部分内容分发渠道的少数巨头是否应该给用户提供健康的信息大餐呢?它们是否应该过滤搜索结果让哪些反映出事实真相、有细致入微的实质性内容的信息优先呈现?

  「如果你幻想 Facebook 有一天能这么做,那一天应该就是乌托邦开始的时候。」弗洛瑞迪表明了自己的看法。

  至于搜索引擎的内容,弗洛瑞迪承认其中确实存在着无可争议的谎言,比如 2+2=5 这种就应该被严格监控。「流传于世的事实真相其信息质量是应该被控制的,确实应该有一些机制对于其进行审核。」

  但是这并不意味着我们应该委托谷歌来对于信息进行审查。「如今我们已经形成了这样一种印象,即谷歌为我们提供了真实的信息,但是这样发展下去总有一天我们会看到『你搜索的信息已经被谷歌官方删除』。这种情况让人毛骨悚然,这将使谷歌成为终极版老大哥。」

谷歌也未必可靠:搜索算法中的道德争论

  想要修正搜索结果且不新造一个老大哥,那就需要考虑到知识的传递是一种基本的、普适的需要,既然如此,我们就需要更为民主的方式去对其质量加以把控。

  当然,谷歌和 Facebook 已经研究了用户的偏好,并且基于对用户的研究重塑了自己的搜索。但是仅仅依靠用户自发的需求是不行的,我们已经知道用户无意识的选择(比如偏好甜点式阅读)和我们应该去阅读的信息是截然不同的。

  换句话说,民主政府会征求批评者的意见,并且为了取得选举的胜利而修正自己的行为。从理论上说,透明的制衡机制会确保普遍的问责制。如果私人科技公司也能够做出类似的抉择,承担起同样的责任,将搜索算法向大众公开,并且让用户参与其中,也许我们就能够最终得到想要的真相。

  在弗洛瑞迪看来,即便是最完美的婚姻关系中也存在着竞争过程,他建议在搜索结果中呈现出来自不同搜索引擎得出的结果。「你所搜索的问题会得到不同的答案,也许这样子搜索结果中就不会一致地确认恐龙灭绝是因为创世论这一近乎疯狂的理论。」

  然而想要做到此第一步就是需要有积极的、经过深思熟虑的搜索结果样本来参考。「如果我们能够拥有更好的用户,让那些对于更好的服务有所要求的聪明人进入信息市场当中,这些人就能够推动整个信息市场得以改进,让类似 Facebook 这样的公司做出相应的反应。」

  换句话说,想要发明出更符合道德的搜索算法,还是得先需要有具备道德的用户。

正文到此结束
Loading...