YouTube推荐算法的罪与罚

时间:2019-04-01 17:59:51       来源:

猎云网注:兔子洞是一个比喻,指把某人带入一个奇妙的或麻烦的超现实状态或情境。在互联网上,兔子洞通常指的是一个非常引人入胜和耗时的话题。

纽约时报科技与商业专栏作家Kevin Roose表示,它被称为 21世纪最强大的激进化工具之一 、 分裂、阴谋和仇恨内容的培养皿 、更是 驱使人们到互联网最黑暗角落 的工具。

Kevin说的正是YouTube,具体的说是YouTube的推荐算法。YouTube的推荐引擎决定了用户在观看了某一视频之后将会播放哪些视频。推荐引擎是YouTube强有力的心脏,它能够吸引用户在该网站上流连数小时。YouTube公司称用户在YouTube上花费的总时间中,看推荐内容的时间占比70%。

但如今,由于该推荐引擎被指控引导用户浏览偏激的内容,于YouTube而言它却成了一个越来越大的负担。最近新西兰克赖斯特彻奇发生了大规模枪击事件,而这正是一名在网上显示出有激进倾向的枪手所为。批评者们都质疑YouTube和其他平台不仅允许仇恨及暴力内容在网络上出现,更在积极地向用户推广这些内容。YouTube的最大对手Facebook这周表示将在该平台上严禁白人民族主义和白人分裂主义。

最近Kevin就大众对于YouTube推荐引擎的批判以及该公司应对激进及暴力极端内容的举措访谈了其首席产品官Neil Mohan。Kevin和Neil谈到了YouTube未来的计划以及该公司就极端内容已采取的控制措施,如聘用额外的评论者、引入主要新闻事件后起效的突发新闻栏、及修改推荐引擎以降低阴谋论和其他偏激内容的传播。

以下为访谈实录,由猎云网编辑删减。

Kevin:不知您对于大众对YouTube上含过激内容的批判有何看法?

Neil:我想也许我需要一分钟时间回顾一下,然后我来谈下我们关于这一问题的看法。正如你所知,YouTube起初是一个在内容、声音、观点和想法等方面都开放的平台,当然它现在仍是。我认为问题与此事实有很大的关系。网站上很多内容确实越了常规,很多看法你、我和他人也可能都不会持相同观点。但若不是坚信不同声音和意见的力量强大,我不会在YouTube从事我现在的工作。话虽这么说,如今我们确实已非常严肃地对待有害信息、仇恨内容、以及在有些情况下可煽动暴力的内容的传播。

Kevin:我听说过很多关于兔子洞效应的说法。当你开始观看一个视频,然后你就会被建议观看内容稍微极端一点的视频等等,突然你就在观看内容非常极端的视频了。这是真的吗?

Neil:是的,我之前也听说过此现象。我认为这个描述有些虚构之处,而我有必要揭穿这虚假之处,对我来说这是有益的。首先第一点是关于推荐用户观看内容暴力的视频会延长用户观看的时间并在某种程度上可以提高公司的效益的观点。我可以明确地告诉大家,YouTube的推荐系统并不是如此设计的。观看时间只是系统设计使用的考虑之一,事实上系统设计还要考虑用户的参与度与满意度。与其他类型的内容相比,极端内容并不能驱使用户参与度增高,并使用用户观看视频的时间延长。

第二、推广这一类含过激内容的视频并不符合我们公司的商业利益。过激内容视频并不能很大程度上增加用户的观看时间。很多时候广告客户并不想与这类内容联系在一起,所以由过激内容增加的观看时间并不能产生盈利。

所以说要说这个问题与我们公司的商业利益相关,我认为这纯粹是虚假的。

Kevin:那为什么人们会谈论兔子洞效应呢?你知道当我观看了一个关于特朗普总统的视频之后,现在我得到的一系列推送都是关于党派内容的。人们认为这就是在YouTube上发生的事,你觉得原因是什么呢?

Neil:这正是我们在修改搜索引擎的时候密切关注的地方,几周前我也曾向你们提过修改推荐引擎这件事。我们关注的重点是在推荐视频这一版块都发生了什么。第一点我要说的是当用户观看完一个视频之后,我们会推荐其他视频,但我们并没有考虑到这些视频是否包含了或多或少的过激内容。

所以当我们查看数据时,如你所料,数据显示被推荐的视频与用户已观看的视频内容是相关的,这显然并不奇怪。但用户在推荐视频版块上观看的视频内容很可能比之前观看的视频内容要稍微偏激一点。用户也会观看到他们眼中所谓的主流视频,这些视频内容并没有那么偏激。看到哪样的视频取决于用户的行为,很可能某些用户一开始本可以点击观看内容比较极端的视频,但事实上他们看了常规的视频。

这是在我们仔细研究了推送这个问题之后得出的结果。这并不意味着我们不想解决我们谈论的这个问题,这只是......

Kevin:抱歉,能打断您一下吗?我想明确一下,您是说YouTube上没有兔子洞效应吗?

Neil:我正尝试向你解释这个问题的本质。当用户观看了一个视频之后,用户会看到一系列的推荐视频。其中有些视频可能会给人一种含很多极端内容的感觉,而其他视频则给人一种不怎么含极端内容的感觉。我再一次明确YouTube的推荐系统并没有这样做,因为这并不是推荐系统的考虑点之一,这只是用户在推荐视频版块上观察得出结论。

我并不是说用户不能点击那些所谓很过激的视频中,并观看该视频,之后再观看系统推荐的一系列视频,这样一直朝一个方向或另一个方向看下去,但我想说的是这并不是不可避免的。

Kevin:就突发新闻方面,YouTube是使用经核准或有可靠来源的信息而不是常规的推荐算法来向用户显示权威信息的,这对于彻底改变推荐和搜索结果的运行方式非常的重要。那为什么不在所有方面都这么做呢?

Neil:就此我想谈几点。其一、使用经核准或有可靠来源的信息不仅仅适用于突发新闻方面,也可适用于其他信息方面。话虽如此,但当其应用范围扩大到其他方面时,功效就会大打折扣,而且还要付出相应的代价。比如,当很多使用案例如你所知并不在信息搜索领域之中,又如何在整个YouTube范围内规定它是可靠的呢?比如娱乐活动如音乐和喜剧等,它们通常由人们的个人品味驱动,很难对其进行规定。

Kevin:对,但可以只在政治方面这么做,比如对于所有政治类视频都应要求其来源可靠。

Neil:我认为,即使涉足像政治如此广泛的领域,也会有所代价。我只提出有一需注意的事项,就是如此一来政治言论就会被限定成预先设定好的看法。我认为,特别是涉及到像政治这样充满活力和对社会有影响的事物时,需要有平台能传出不同的声音让人们听到。

Kevin:自新西兰枪击事件以来,我们听说了这样的一个问题:很多平台协同合作打击了与ISIS相关的内容,但这些平台为什么没有对白人至上主义或暴力右翼极端主义采取同样的措施?您觉得答案是什么呢?

Neil:我想说第一,事实上说到新西兰枪击案,是有俩组挑战的。其中之一就是我们刚刚谈到的一切都是关于展现权威高质量信息,而非阴谋论或有害信息。另一挑战则与将视频重新上传到不同平台的速度有关。重新上传速度是我们与其他平台紧密合作的领域之一。我们紧密合作是为了保证每一家都拥有视频的种子,并可共同分享。

第二,更普遍地来说,在暴力极端主义和在平台上限制这些视频方面,没有对白人至上主义或暴力右翼极端主义采取与ISIS相同措施的原因是ISIS视频采取了一种特定的形式。它们往往是为了宣传和征聘目的而设计的,所以他们在视觉上和可能使用的音乐上都有其品牌和标志。通过这些线索我们可以将其内容撤下。当然,我们是与其他平台合作来撤下其视频的。

但在某些情况下,困难更加重重。比如在界定某些让人反感,人们都持反对意见的言论是仇恨言论还是政治言论,很多时候是很模糊并难以判断的。人们可能感觉它是仇恨言论,但它却是来源于在选举中的候选人等的政治言论。

Kevin:关于YouTube这些年来成了另类媒体形式的说法非常的多。不上YouTube的人是因为他们想要在YouTube上看到和电视上一样的内容,而YouTube上并没有。而上YouTube的人则是因为他们已经与博主建立了信任的关系。当Logan Paul推出一部关于地球是平的的纪录片,或者是Shane Dawson质疑911是否发生时,人们会觉得YouTube是能找到正解的地方,或许这就是让这一切变得难以挽回的原因。

Neil:就此我也思考了很多,我认为我们最后半小时谈论的所有都与我就此事的想法相契合。我个人认为这是由于每个月YouTube的用户访问量达20亿导致的。每个人来到YouTube都有其特定的原因。他们或是因为有最新或最好的音乐视频发布、或是因为YouTube原创视频、或是因为他们最喜欢的博主。还有一个很重要的原因则是信息,在过去几年中因信息而访问YouTube的人所占比例不断在增长,这也在一定程度上反映了世界上正在发生的事情。

而且,我认为人们到YouTube上寻求信息造成了我们考虑平台应负责任的方式的转变。转变的结果则是产品团队正在考虑所有的解决方案,其中许多解决方案我们已在这里讨论过。这些解决方案是平台负责的一种体现,它将保证当用户在搜索信息时,YouTube会全力地为用户提供这些信息。但就用户的意图和其正寻找的信息方面,YouTube仍会将主动权放给用户。

我认为我们在这方面已取得了很大成就,但显然还有很多工作等着我们去完成。我们也将会一直努力下去。