男性和女性的评论区不一样,算法连这也不放过了?

时事新闻2023-09-11 16:41:56无忧百科

男性和女性的评论区不一样,算法连这也不放过了?



前两天,一个老生常谈的话题引爆了互联网,连续两天上了微博热搜。

它叫「 信息茧房 」。



不少人之前就听过这词,也了解过它,但这次大家反应这么大,是因为这是他们第一次,如此直观地面对信息茧房。

事情是这样的。

有网友发现,在一个内容关于情侣吵架的视频下方,不同账号看到的评论区是不一样的。

他的账号看到的评论区,靠前的评论都出自于男性网友,立场也都是从男性出发;女朋友账号看到的评论区,则恰恰相反。

左男右女



在这条微博下面,有很多网友质疑,这无形中会不会影响我们判断。



第二天,有位博主看到这视频后,决定做个测试。

她注册了一个新抖音号,关注了一笑倾城,不断给老年人视频点赞,在网络世界里乔装成中老年人。



如此操作一个小时后,她发现自己进入了一个新世界。

在线 PK 的不再是年轻的主播,而是几位毛发稀疏、头顶锃亮的大爷;线上连麦的网友,也是差不多岁数的阿姨。

在一个大爷品茶的视频下方,排在前列的评论,都来自于真实的中老年人。

但当博主切回自己的账号,找到这条品茶视频时,评论区的第一条却是一个从未见过的评论。



这意味着,不一样的年龄看到的评论区也不一样。

事情发酵后,立马引来了众多网友的质疑。除了转发和评论,他们还纷纷跑到原视频评论区下,做起了测试

有人问,能看到他评论的网友,是男是女;

有人贴出自己的评论区截图,让其他人看看是否一样;



还有不少人联想到之前的经历,认定「 算法确实在定制评论区 」。

比如一位四川 IP 的网友说,每次刷到第一条评论都是吃个四川人。



也有一堆人表示难怪每次刷评论,发现别人都在虚空对线,合着评论区就不是一个版本呗。



甚至还有更「 阴谋论 」的说法,认为这是短视频平台通过算法,故意挑起男女对立。

其实在听说这事后,差评君也拿了三个同事( 1 男 2 女 )的手机做了测试。

但我们发现,在原视频下方,除了个别评论的顺序稍有不同,评论区整体来说是一样的。



为了排除同 IP 的情况,我也找了几十公里开外的朋友测试,情况也是如此。

可能我们来迟了,或者还在灰度?

后来我也另外翻看了几个博主,分别是美女主播、男科大夫、彩礼话题的律师。

这些主题相对容易引起性别对立,我想看看他们的评论区是否有网友说的「 性别定制 」。

结果在最后一位律师的评论区,我们才遇到靠前评论差别较大的情况,至于其他两位,完全一致。



基于此和以往经验,我不能说短视频平台的评论排序是在故意推动什么,但我可以说:它绝非是完全按照热度 & 时间的维度排序。

以往我们打开一些社交平台的评论区,会看到这样两个选项:热度 & 时间。



但是在短视频平台,用户却没有选择评论排序的权利。

比如抖音上热度低的评论有时会在热度高的前面;



类似情况也出现在快手。



我们是没法判断短视频评论区是否接入了算法,但,要是连评论排序都不给用户自主选择的权利,这无疑也会加重信息茧房,进而带偏大家的三观。

首先要弄清楚的是,「 信息茧房 」不是算法时代的产物,它源自于桑斯坦 2006 年的书《 信息乌托邦 》,讲的是一个现象

公众只会注意自己选择的东西和使自己愉悦的领域,久而久之,会将自身桎梏于像蚕茧一般的 “ 茧房 ” 中。

而算法的出现,会加剧「 信息茧房 」形成。

因为我们不断被投喂自己喜欢看的,想要看的东西。信息输入一旦单一化,我们看事情的维度也会变得单一,思维就会狭隘。

德国电影学家 Siegfried Kracauer 写过一本书《 电影的本性 》,当中讲到一个故事。



有导演拍了部城市小短片,放给从没接触电影的非洲土著居民观看。

影片里展示的是灯红酒绿,高楼大厦,结果看完后观众对这些毫无反应,只热烈讨论短片中短暂出现的一只鸡。

导演自己都不知道短片里会有一只鸡,后来发现在某 1 秒镜头的角落晃过一只鸡。

为啥土著人关注到了鸡?因为他们只认识鸡,所以鸡成了主角,不认识的高楼大厦变成了背景。

后来电影学中就有这么一句话:你是否看见了一只鸡。

意思是每个人在阅读一部作品时,我们看到的,只是我们眼中的那只鸡,它取决于我们所接收过的信息。

就好比让大伙儿说一部自己最喜欢的电影,你也许会选《 奥本海默 》,你的朋友可能会选《 芭比 》,你的表舅可能选《 战狼 》。

但不管是谁选,他的答案一定局限在「 他所看过的电影 」。



决定答案的,是经历,是认知,是输入进脑里的信息。一旦算法让你接收到的信息变得单一,你看待和分析事情就会变得片面。

片面是其一,其二,变得极端。

因为我们只能听到自己认同的看法,在不断重复不断加深后,我们思维就会固化,排除异己,最终出现回音室效应,观点在脑子里放大,膨胀,变得极端。

在网络上我们经常会看到,持不同意见的人吵得不可开交。

因为在他们目光所及的世界里,他们都觉得自己是正确的,是大多数,和自己不一样的人简直不可理喻。

但真实复杂,包罗万象的世界,事情并不是非黑即白的。

图源 Caspar Camille Rubin on Unsplash



不知道大家有没有同感,即使是在评论按热度排序的年代,很多帖子里,也经常出现整个楼层的三观被高赞评论带偏的情况,持相反意见的人排在很后面才能被看到。

因为人都有从众心理,相对于宣扬自己的判断,人们更倾向于不孤立自己。自己的想法,有时还要看到风向才能确定。

那如果评论区再干脆不按热度排序,交由算法统治了,又会是什么样子呢?

这会导致有共同的标签( 性别、爱好 )的人,被拉在同一个群体评论区,会导致一些本该被你扫到一眼的相反意见完全消失。

人们更容易趋于一致,也更容易极端化,和别的群体会更割裂。

你可以想象一下,如果男女真的分开上网,双方完全听不见对方的想法,性别对立是会减小还是大大加深呢?

图源 Gilles Lambert on Unsplash



当然,以上种种,对于大部分人来说,不过只是一种隐忧。

真正信息茧房的形成,条件比较苛刻。

清华大学和中国传媒大学两位学者曾发表一篇文章,提到「 信息茧房 」是个似是而非的概念,没有有力的研究能证实它的存在,造成「 信息茧房 」的环境很难出现。

诸如 2019 年第 3 季度,抖音用户数 6.06 亿,快手用户数 4.14 亿,这些用户重合率达到 36.4% ,这意味着人们一般不大可能处在一个能形成信息茧房的「单一信息环境 」里。



毕竟,我们平时接受信息的方式有很多,各种社交媒体平台、朋友圈等等,这些都可以帮助我们去认知世界。

真正值得担心的,则是一部分被忽略的群体,比如:中老年人。

他们往往处在低频、单线程的社交环境中,他们认识互联网世界的方式,除了微信可能只有某个短视频平台。对于他们来说,长期只获取自己「 应该 」获取的信息,真的没问题吗?

不过,即便信息茧房形成条件苛刻,也并不妨碍大家关注和警惕它。

今日头条是最早一批用算法机制的新闻 App ,推出仅四年,日活超 6000 万,用户平均使用时长 76 分钟。

这就是个性化推荐的魔力,吸引用户,留存用户。



在当时,我们并没有觉得这件事有啥不对劲,只觉得很新鲜,甚至有点沉迷。

之后这些年,越来越多 App 接入算法系统。从以「 关注体系 」为生的微博,到以专业战报起家的懂球帝,再到以传统论坛获得网友们喜爱的虎扑,纷纷改版。

无数 App 宁可抛弃自己的传统和基因,也一定要壮士断腕般地投身算法。



虽然用户一开始有些不适应,但日活和数据却呈现出两个字:真香。

久而久之,用户也觉得可以接受,不过是内容变多变杂了嘛。

直到这次事件曝光后,大家才开始觉得不对劲了。

因为,它终于触碰了观众的蛋糕。

众所周知,视频制作者和评论区发言者的话语权是不对等的。视频中输出观点的影响力,评论区则需要一万个持相同观点的人才可以相提并论。

大家害怕算法剥夺自己聚起来发生的权利。

况且,算法没有给你推荐的内容,你还可以搜索到。

但算法没有给你推荐的评论,你很难再精准定位到它们。它们沉底在几千几万条的评论区,甚至可能被完全隐藏,在你的互联网里销声匿迹。



我明白,算法是当前信息过载的时代,简化人们接受信息的必然产物,也是很多平台为了拉长用户留存时间,早晚都会使用的技术手段。

但算法值得大家警惕,它像一个暗自入侵的机器人,从给你投喂视频,到在潜移默化中影响甚至塑造我们的人格。

其实它无非就是一个数学模型,是可以调整和优化的,是能避免我们处在过于单一的信息环境中,只不过决定权在于它们背后的大脑罢了。

早之前,江湖上就流传着一个段子:

互联网的作用,原本是让井底之蛙开一开眼界,认识一下井口以外的世界。可实际情况是成千上万只井底之蛙通过互联网互相认识,互相认同和肯定,并经过长久的交流之后达成共识:世界确实只有井口这么大。

诙谐的背后,是沉重的事实。

但如今看来,算法似乎让它变得,更沉重了。

本文标签: 连麦  微博  算法  评论区  短视频  互联网  

相关推荐

猜你喜欢

大家正在看