热线电话:13121318867

登录
首页精彩阅读限制你眼界的不是算法,而是你自己
限制你眼界的不是算法,而是你自己
2015-05-26
收藏

限制你眼界的不是算法,而是你自己


现代人已经习惯通过社交网站来获取各类新闻信息。与传统媒体“你给什么我看什么”的信息获取方式不同,网络媒体为用户提供了更大的自由度,让他们可以选择自己想看的内容。由于网络信息的过载和多样,很多社交媒体也都采用了各种各样的算法来为用户推送更加个性化的新闻,让新闻更加符合每个人的口味。例如,Facebook就采取特定算法来决定用户的信息源(News Feed)里各种信息的排列顺序。

然而,很多学者担忧过度个性化的推荐会引起“回声室效应”(echo chamber):根据算法的推荐,人们逐渐接收到的都是和自己意见相似的新闻与朋友分享的信息,持不同观点的人也逐渐形成愈发封闭的小圈子。埃利·帕雷瑟(Eli Pariser) 在《过滤泡沫》 (Filter Bubble)一书中也表达了类似的忧虑:“这些个性化算法使得只有和人们的意识形态一致的信息才会被呈现,人们的视野越来越窄,可以接触到多元化信息的机会也越来越少。”对于持不同政治观点的人们来说,这样的“过滤泡沫”会让人们越来越坚持自己的政治理念,拉大不同意识形态人群之间的差距,造成社会上政治观点的两极分化和矛盾。

社交媒体的算法究竟是否限制了人们接收信息的多样性,为人们“屏蔽”了异己观点?最近,来自Facebook数据科学团队的研究者在《科学》(Science)上发表的一项研究发现,尽管Facebook的排名算法导致了一定程度的“过滤泡沫”,但人们对信息的选择更加制约了他们接受对立政治观点的可能性[1]。

“硬”内容的政治偏向

研究者将与国内新闻、政治和世界局势有关的内容定义为“硬”内容(“hard” content),而将与娱乐、体育和旅游相关的内容定义为“软”内容(“soft” content)。他们发现,大部分的硬新闻都具有明显的倾向保守主义或自由主义的趋势。通过对硬内容进行分析,研究者就可以确定分享这些新闻的用户的政治倾向。

在Facebook上,信息的流动是由人们的社交关系网决定的,朋友的政治观点很多时候也能够影响人们的观念。和很多政治博客不同,虽然在Facebook上也存在根据政治倾向抱团的现象,但朋友间仍存在意识形态上的差异。平均来说,每个Facebook用户的好友中,有23%的人和自己的政治意识形态相反。而人们接触到的他们朋友分享的信息中,平均有29.5%的信息来自于意识形态对立的一方。

排序算法有影响,个人选择更重要

研究者最为感兴趣的是,Facebook的新闻源排序算法会如何影响人们接触对立观点。经过算法排序后,人们的确更少接收到来自对立面的信息:平均有28.5%来自于意识形态相反的一方。

不过,人们对文章链接的个人选择对他们接触不同意识形态信息的影响更大。总的来说,人们点击的信息中只有24.9%的来自于对意识形态对立的一方。

从心理学角度来说,这种情况属于“自我验证偏好”(confirmation bias)。它使得人们有一种根据自己已有观点来接受和解释信息的倾向,这种倾向导致人们常固守于已有的观点。为了验证自己已有的观点,人们往往依赖于支持性的证据,并只搜索、解释和回忆与自己信念或假设一致的信息。上面研究中发现的人们只点击与自己政治立场一致的信息就是“自我验证偏好”的最好例子。

这个研究表明,人们对信息的自我选择和自我验证,可能比个性化算法更加危险。从另一个角度来说,这项研究也证明现代信息技术对人们观点的影响并没有先前人们设想的那么悲观。算法并非“过滤泡沫”的罪魁祸首,人们的自我验证偏好才是人们接触异己信息的最大障碍。但这项研究也提示我们,想要为人们提供更平衡全面的新闻信息,开发与社会信息有关的算法仍任重道远。

编者按:该研究发表后,一些反对者认为,这一研究实际是一个“这不是我们的错”(“it’s not our fault”)类型的研究,是Facebook在为自己“洗白”。有研究者指出,将算法对内容的筛选与用户自己对内容的筛选相比较,就像是“询问菜单上新添的炸薯条含有多少反式脂肪酸,然后被告知老早就售卖的汉堡中也有反式脂肪酸”,而对于研究的解读应该落在社交网络的算法是否会加剧人们的偏见上。2014年6月,Facebook发表在PNAS上的一项情绪研究也曾引起广泛争议。在这项研究中,Facebook在用户不知情的状况下,调整了他们动态消息上来自好友的帖子,以测试正面或负面信息的情绪传染力。

数据分析咨询请扫描二维码

最新资讯
更多
客服在线
立即咨询