主流媒体的误导性标题比彻头彻尾的假新闻更危险

2024-09-14 07:40来源:本站编辑

诸如“一名‘健康’医生在接种COVID-19疫苗两周后死亡;美国疾病预防控制中心正在调查为什么《芝加哥论坛报》的“拒绝接种新冠疫苗”和《福布斯》的“包括医生和注册护士在内的大量医护人员拒绝接种新冠疫苗”是2021年初Facebook上最受欢迎的帖子,也是对美国新冠疫苗接种率影响最大的两个例子。假新闻更有效,但影响范围要小得多。

这是发表在《科学》杂志上的一篇新文章的主要结论,该文章分析了2021年1月至3月期间Facebook上有关疫苗的链接的影响。该平台的数据显示,被标记为虚假的链接被浏览了870万次,仅占同期有关疫苗的27亿浏览量的0.3%。相比之下,没有被标记为错误信息,但暗示疫苗有害的头条新闻,许多在主流媒体上,被观看了数亿次。影响范围的差异如此之大,以至于相比之下,彻头彻尾的假新闻的影响要小得多。

“我们的分析表明,Facebook的事实核查人员识别出了最具破坏性的错误信息,因为Facebook做得‘不错’,”麻省理工学院(MIT)的研究员、该论文的合著者詹妮弗·艾伦(Jennifer Allen)说。“但其他故事可能会在网络上迅速传播,恶意行为者可能会使用严谨的故事来宣传误导性的叙述,平台应该更好地解决这个问题。”虽然媒体在写标题时也应该注意,因为他们的内容可能会断章取义,”她补充道。像《芝加哥论坛报》这样的反疫苗组织的头条新闻,在这样的背景下,可能是毁灭性的。

这一发现改变了传统上对假新闻和错误信息的关注,提醒人们,更多的主流媒体也必须注意自己发表的内容,尤其是在一个故事可能仅仅因为标题就能走红的时代。“争夺点击量是一个挑战,”艾伦说,“但我不认为这减轻了媒体的责任。记者应该记住,在社交媒体上只有标题才能被阅读,故事可能会断章取义。他们应该努力避免对自己工作的误解。”

作者根据看到这些标题的用户数量计算了这些标题的实际影响。误导性的头条新闻对应该接种疫苗的人的负面影响是更明目张心的假新闻的46倍。剑桥大学研究员Sander van der Linden在《科学》杂志上对这篇文章的评论中估计,基于2.33亿美国人使用Facebook的事实,这些头条新闻至少阻止了300万人接种疫苗。“这是一个粗略的估计,”艾伦警告说。

该研究估计,Facebook上对疫苗持怀疑态度的内容使美国人的疫苗接种意愿降低了2.3个百分点,但一个人的意图可能与他们的最终决定不同。“我们假设,根据其他研究,疫苗接种率是疫苗接种意图的60%,从中我们得到300万的数字。这个数字是推测性的,但它表明这些头条新闻的潜在影响可能是相当大的。”

这篇文章的重点是疫苗接种标题的影响。但范德林登认为,在政策等其他领域,它很容易被复制,而且“只取决于对相关数据的持续访问,”他说。

女性,年长且保守

在传播范围很小的假新闻和传播迅速的看似严肃的头条新闻之间的辩论中,《科学》杂志发表了第二篇关于一个众所周知但很少被衡量的现象的文章:超级分享者。这指的是一小群用户把他们的账户变成了转发虚假信息或有偏见信息的机器。这项新研究发现,他们对公共辩论的实际影响比看起来更大。

这项研究调查了2020年美国总统大选期间超过66.4万名登记选民。在这一数字中,只有2107人(占0.3%)分享了80%的假新闻。他们是超级分享者。只有这个群体在推特上接触到了5.2%的注册选民。这篇文章的作者写道:“这些发现凸显了社交媒体对民主的脆弱性,在社交媒体上,一小群人扭曲了许多人的政治现实。”

研究还发现了这一群体的一些个人特征:他们大多是保守的老年女性。这一概况与《自然》杂志2023年夏天的一项研究不谋而合,该研究使用了Facebook的数据,显示绝大多数假新闻都被保守派消费了。

以色列内盖夫本古里安大学(Ben Gurion University)的研究人员、研究报告的合著者之一尼尔·格林伯格(Nir Grinberg)表示,由于缺乏其他社交网络的数据,这项新研究仅限于Twitter,“我本希望有能力用经验证据回答有关其他社交网络的问题,但社交网络平台数据的可用性限制了这类研究。”

文章称,关注这些账户的Twitter用户(今天的X)更容易接触到错误信息和反复接触,这使他们更容易相信谎言。超级分享者的影响力不容低估:如果一位候选人想要达到同样的传播水平,他们将花费2000万美元:“超级分享者不仅在网上找到了相当大的受众,而且发现他们是其网络中有影响力的成员,这些网络向他们的追随者提供了大约四分之一的假新闻,”文章说。

在理解错误信息方面的这些进展为思考如何限制其影响范围开辟了道路。“内容审核是自由表达和潜在危害之间的平衡,”艾伦说。“但平台很难衡量内容的有害程度。”例如,在某些情况下,平台忽视了另一种更有害的内容类型,这种内容具有误导性,但并没有严格违反规范。

“我们的方法允许平台首先识别可能产生负面影响的内容,然后制定政策,”艾伦说,她在麻省理工学院攻读博士学位之前曾在meta工作。她解释说:“作为第一步,Facebook可以根据其潜在的有害影响,根据其说服力乘以潜在受众,优先向验证者发送内容,其中拥有许多关注者的页面更优先。”

作为一种替代方案,Allen还提出了一种类似于X的Community Notes的措施,用户可以协作核实信息的真实性。艾伦说:“这可以减轻那些通过事实核查但缺乏相关背景的破坏性报道的影响。”

见奇网声明:未经许可,不得转载。