独家丨虚假信息的多方共治:美国的经验

时间:2019-11-04  点击:
手机版

  导 读

  虚假信息已成社会公害,美国社会对此如何治理?互联网公司、学术共同体和公益组织各自如何作为?

  近年来,随着网络技术的进步和社交媒体的普及,假新闻(fake news)和虚假信息(disinformation)甚嚣尘上,严重侵蚀了民主体制和社会秩序,成为全球舆论关注的热点问题。全球最大的社交媒体脸书(Facebook)在2015至2017年间监测到3000个虚假广告和470个发布煽动性内容的虚假账户。2016年10月美国大选期间,有1.59亿人次浏览了65个涉嫌发布大量虚假信息的网站①。特朗普上任后先是以“另类事实”(alternative fact)引发社会质疑,又通过个人推特账号颁布“年度假新闻奖”,与主流媒体和记者开怼,互相指责对方利用假新闻来操纵舆论。在此背景下,虚假信息治理已成为美国传播学界和业界研究的焦点问题。

  虚假信息泛滥的“病因”

  2017年间,“假新闻”一词的使用频率比2016年增加了3.65倍,而频繁使用也使其含义发生变异,沦为不同政党派别攻击异见时所贴的标签。同时,这个词也无法涵括互网络媒体生态中复杂多变的“信息失序”的现况。为了厘清概念,哈佛大学肯尼迪政府学院的学者克莱尔·沃德(Claire Wardle)从信息的危害性和虚假性两个维度,区分了错误信息(misinformation)、虚假信息(disinformation)和恶意信息(mal-information)②。错误信息是无意中被分享的失实信息。虚假信息是指故意编造的具有潜在危害性和误导性的信息。恶意信息则指通过分享真实信息而造成“二次伤害”的情况,通常发生在隐私信息被暴露在公共领域时。其中,虚假信息因其传播的广泛性、危险性和伤害性被称为“有毒的后真相”,因而备受关注。

  在美国政治生态极化、事实让位给情感的“后真相”时代,相比真实信息,虚假信息因其内容的新奇性和模糊性,传播渠道的便捷性而达到了“秒传广远”的效果。根据麻省理工学院媒体实验室发布的报告,虚假信息被转发的可能性比真实信息高出70%,真实信息覆盖1500人所用的时间是虚假信息的6倍③。网民对于虚假信息的“偏爱”很大程度上源自其新奇性和情感效应,这也是“注意力经济”时代的副产品。在信息高度饱和的情况下,传播主体通过“博眼球”“求关注”来谋得商业利益或政治目的。相比客观中立,不夹带感情倾向的新闻,带有强烈情绪、观点和煽动力的标题和内容更容易引起人的关注。当“流量至上”替代了新闻真实,造假成本低廉而获益颇丰时,能赚取更多点击量、点赞和转发的虚假信息便成了深受自媒体和社交平台青睐的“印钞机”。

  另外,地方媒体的式微所带来的“新闻荒漠”效应雪上加霜,作为“把关人”的记者和编辑的缺席导致虚假信息占台唱戏。地方媒体是民主政治和新闻业的根基,在告知信息、推动公民的政治参与和社群整合方面发挥了重要作用④。然而,互联网和社交媒体的发展夺走了传统媒体的广告利润。迫于经济压力,地方媒体不得不通过裁员、减少调查性报道乃至于停刊等手段来缩减开支,使得新闻报道的广度、深度和品质大打折扣,难以发挥告知真相、凝聚社群的作用。与此同时,社交平台的“低门槛”使得大量未经验证的信息涌入,算法推荐机制根据用户兴趣和浏览记录推送新闻,其所导致的“信息茧房”“回声室”效应使得用户接收大量同质化内容,加剧了社群的分化和极化。

  虚假信息的泛滥破坏了美国公共协商和决策的信息基础,引发了公众对科技创新和媒体公信力的质疑。盖洛普研究报告显示,2016年美国公众对媒体的信任度为32%,是1973年以来的最低谷。2018年的报告显示,美国公众对媒体信任度为45%,相比2016年和2017年(41%)有所回升⑤。自2016年以来,美国学界、业界和公民社会组织通过在学术研究、实践探索和培训宣导等多个维度展开多方合作,各司其职,发起了一场自下而上、联动共治的虚假信息反击战,业已取得一定成效。在全球饱受虚假信息困扰的“后真相”时代,美国作为虚假信息“重灾区”,总结梳理其相关经验可为国内同行提供镜鉴。

  作为“领头羊”的互联网公司

  根据皮尤研究中心2018年发布的报告,美国有68%的成年人通过Facebook、YouTube和Snapchat等社交平台获取新闻,其中20%的人经常通过此类社交媒体获取信息⑥。由于社交平台庞大的用户数量,内容发布方的低准入和泛滥成灾的虚假信息,社交平台成为抗击虚假信息的前沿阵地。

  自从2016年美国大选,脸书、谷歌、推特等互联网信息平台因假新闻备受指责。虽然他们都在反复强调自己只是科技公司,不是媒体机构,以此来逃避编辑责任和广告法监管,但近年来在社会舆论的强大压力下,作为社交平台运营主体的互联网公司采取了一些行之有效的应对措施来回应社会关切,在虚假信息共治体系中扮演了“领头羊”的角色。

  首先,他们与事实核查机构合作,采用人工智能与人工审核的协同机制,提高了网络信息鉴别的效率和准确率。2016年底,脸书开始尝试使用“识别虚假新闻”的人工智能工具,通过与第三方事实核查网站合作,对核验为虚假信息的文章设置“有争议”的红色警示符号,然而“争议小红旗”这样的明显图标反而会加深用户印象,效果适得其反。之后,脸书又推出“相关篇目”(related articles)这一功能,在含有虚假信息的文章旁显示与篇目主题相关的、经过事实核查的文章,帮助读者鉴别虚假新闻。采用这种方式虽然能减少虚假新闻的分享次数,但是并不能减少有争议篇目的点击量。2018年4月,脸书改进了新闻流算法,通过减少虚假信息的显示范围来遏制其传播效果。脸书通过人工智能工具监测平台上分享的信息,把识别的可疑内容发送给第三方事实核查机构。当事实核查人员确定该文章、图片或视频等信息为虚假时,脸书便会降低该信息在新闻流中的排序位置。据测算,该措施可以把虚假信息的平均浏览量降低约80%⑦。

  谷歌也采取了类似方法,从2018年4月起对搜索引擎的算法进行重大调整,通过为排名系统增加新指标,对低质量内容、虚假信息和仇恨言论进行排名降级,避免这些信息“置顶”。针对易受虚假信息干扰的“突发新闻”(breaking news),谷歌通过机器学习等手段,训练系统自动识别冒充突发新闻的虚假信息,并将用户的搜索结果导向权威性和可信度更高的条目。

  脸书通过与第三方事实核查机构合作,把界定真相的责任一并“外包”出去。谷歌依靠调整算法来使虚假信息的排序降级,它们都不愿轻易删除虚假信息,避免承担“真相仲裁者”的角色。另外,第三方事实核查机构在判定信息真伪方面更为专业。虽然虚假信息未得到彻底删除,但社交平台进行干预,有效降低其传播力,也不失为一种权宜之计。

  虽然脸书、谷歌、推特等互联网公司不愿轻易删除平台上的信息,但在各种阴谋论和假新闻借由这些平台大行其道招致激烈批评后,迫于舆论压力,脸书在2018年7月承诺,删除任何可能导致暴力行为的误导性信息。8月,脸书关闭了“盛产”阴谋论的极右翼新闻网站“信息战”(Infowars)的创始人亚历克斯·琼斯(Alex Jones)的账号,两周后又撤掉了超过650个与俄罗斯和伊朗有关的存在“不真实行为”的账号和主页。推特也大刀阔斧地打击虚假账号,两个月内清理掉7000万个通过自动化程序创建、被用作“水军”进行营销的虚假账号。互联网公司从拒绝删除虚假信息到清理恶意行为账号,积极肩负起更多的社会责任,这在一定程度上改善了“内容搬运工”和“谣言放大器”的负面形象,树立起了“内容把关人”和“谣言粉碎机”的新形象。

  此外,社交平台还可通过提供充足的背景资料来帮助用户识别出虚假信息。2018年5月,为了提高政治广告的透明度,在脸书和图片墙(Instagram)美国版上推送的政治广告增加了“支付受益方”(Paid for by)标签,点击后即可查看广告主身份、广告信息以及目标受众信息,同时这些广告信息会被保留在数据库中,以便公众随时核查该广告主七年内在美国刊登的政治广告。谷歌、YouTube等平台也采取了类似举措,帮助用户鉴别信息的真伪。谷歌从2017年4月开始全面推广“事实核查”功能,通过与Snopes、Politifact等事实核查机构合作,在搜索结果中标注鉴定结果,并附上详情说明。谷歌旗下的YouTube也对上传的视频加上事实核查标识。除此之外,YouTube与维基百科合作,在涉嫌“阴谋论”的视频旁附上链接,引导用户进入维基百科相关页面,通过阅读与视频主题相关的背景资料来进行鉴别。总的来看,提供更多背景信息能够帮助用户减少用于信息核查的时间和精力,提升其辨别能力,从而遏制虚假信息的海量传播,降低其影响力和危害性。

  除了在社交平台内部进行整改,脸书、WhatsApp、谷歌等互联网公司也开始与学术机构、新闻机构、公益组织等合作,共同打击虚假信息。脸书在2018年4月宣布与学术界合作,授权经过认证的记者和学者访问其政治广告数据库,以此来帮助研究社交媒体在选举活动和民主政治中的角色。饱受网络谣言困扰的WhatsApp为经过认证的公益组织提供对其“应用程序编程接口”(API)的访问权,从而允许这些组织大规模地发送和接收消息。例如,在2018年巴西大选前后,一家公益组织(Comprova)利用此功能帮助用户进行虚假信息的核查。

  2018年3月,谷歌出资3亿美元启动了“谷歌新闻计划”(Google News Initiative),旨在帮助传统新闻媒体推进数字化转型,探索可持续的盈利模式,用科技创新为新闻机构“赋能”。过去一年来,网上又出现了以图片和视频为主的、更难识别真伪的“深度造假”(deepfakes)现象。谷歌开发的“反向图像搜索”(Reverse Image Search)工具可以帮助记者和事实核查人员找到图片和视频的来源,摄影师也可以用此工具追踪其用途来维护版权。数据和技术是互联网公司的“强项”,通过开放部分数据库和提供研发技术的支持,可以为新闻媒体和学术机构提供便利,共同打击虚假信息以实现合作共赢。

  作为“桥梁”和“枢纽”的学术共同体

  社交媒体时代“有毒的后真相”泛滥成灾,背后有着复杂的社会动因。不论是政治或经济利益的绑架,还是前沿科技的滥用,抑或是地方媒体的式微和公民“数字素养教育”(digital literacy education)的缺位,虚假信息的治理不能仅靠单打独斗而见效。互联网公司身处这场阻击战的第一线,在公众和舆论压力下从被动介入转为积极应对,其他“利益攸关方”的参与和支持也非常重要。

  由大学和研究机构组成的学术共同体便是其中重要的一方,他们能够紧扣行业痛点分析病理,为虚假信息的共治出谋划策,充分发挥其“桥梁”和“枢纽”的功效。哈佛大学肯尼迪学院索伦斯坦(Shorestein)媒体、政治与公共政策研究中心主任尼克·迈勒(Nicco Mele)带领一个由研究员、记者和技术人员组成的团队启动了“信息失序项目”(Information Disorder Project),设定了以下三个目标:研究虚假信息的传播扩散机制;培训国内外记者和事实核查员;建立“信息失序实验室”,帮助媒体和公众识别、评估和应对互联网上的错误信息和虚假信息。该实验室开发了两套程序(Issue Tracker和ID Tracker),每周发布报告,帮助公众实时识别、评估和应对互联网上的错误信息和虚假信息。该实验室负责识别、收集和分析社交平台上得到广泛传播的新闻条目,建立内容管理系统和相应的数据库。通过分析这个编码数据库,研究人员可以确定虚假信息的传播模式和趋势,并跟踪不同类型的内容之间的互动情况。“信息失序项目”已于2018年5月正式启动,得到了奈特(Knight)新闻基金会等多个组织的赞助。

  相比之下,亚利桑那州立大学沃尔特·克朗凯特(Walter Cronkite)新闻与大众传播学院组建的“新闻机构/实验室”(NewsCo/Lab)则聚焦于虚假信息的受众,旨在提高公众的数字素养,帮助记者利用数字平台与他们所报道的社区增强相互信任,用专业权威的报道抵制虚假信息。该实验室接受谷歌和脸书的资助,并与专业媒体的新闻采编部门合作,藉此来提高新闻生产过程的透明度和社区参与度。该实验室与地方报纸合作,在加州四个城市进行实验,探索如何增强记者与社区之间的联系,衡量并评估公众参与新闻生产的有效方式。这项实验通过引入“深度对话式新闻”(deep dialogue journalism)的理念,旨在强化地方新闻媒体与社区之间的联系,建立由记者、编辑、社工、图书馆员等共同参与的工作组,帮助当地民众提高“数字素养”和媒体信任度。

  无论是解密虚假信息的传播机制,还是探索重塑媒体公信力的路径,由大学和研究机构组成的学术共同体通过与新闻媒体、互联网公司、公益机构、城镇社区和慈善基金会等“利益攸关方”的合作,逐个击破痛点难点,为解决虚假信息问题提供理论支持和解决方案。

  作为“兵工厂”和“助推器”的公益组织

  在虚假新闻的共治体系中,一批自发形成的非营利性公益组织通过整合各种资源,促进多方合作,推动治理手段和能力的升级,扮演着“兵工厂”和“助推器”的角色。2015年6月,由谷歌新闻实验室资助,Storyful等9家机构成立了名为“初稿”(First Draft)的公益组织联盟,致力于验证网络信息,改进事实核查手段,为全球新闻采编部和新闻学院的课堂教学提供支持。2016年9月,“初稿”与全球近百家新闻机构,新闻学院和事实核查机构组成了“网上实践社区”,针对选举活动中的虚假信息治理展开研讨和培训,在当年美国大选中积累了丰富的经验。2017年法国大选期间,“初稿”与曾经获得普利策奖的公益新闻机构“为了人民”(ProPublica)合作,联合37家新闻媒体的采编部门,采取人机协同的方式,借助于人工智能技术识别和曝光在社交平台上传播的虚假信息。“初稿”还与32家高校、智库和研究机构建立了合作伙伴关系,共同研发和升级鉴别虚假信息的软件工具包。

  由公益组织“国际记者中心”(ICFJ)发起的“真相蜂鸣器”(Truth Buzz)项目是整合全球资源提升虚假信息治理水平的尝试。ICFJ与来自180个国家的10万多名记者合作,依据网络谣言传播的规律,用“以毒攻毒”的理念优化和升级事实核查手段,“实现真相的病毒化传播”⑧。该项目起初是一项全球范围内进行的竞赛。2018年初,ICFJ召集了一个由脸书、“初稿”、谷歌新闻实验室等以新媒体机构为主的评审团,设置两万美元奖金,奖励效果好且操作性强的事实核查和揭露虚假信息的方案。大赛成功举办后,ICFJ又把该项目拓展到巴西、印度、尼日利亚和印度尼西亚等发展中国家,帮助当地的新闻媒体机构和公益组织提升事实核查的水平,尤其是强化当地在大选期间防控虚假信息泛滥的能力。

  “美国经验”的启示

  自2016年来,美国各界总结和吸取大选期间假新闻干扰选情的教训,夯实民主政治的根基,开展了如火如荼的虚假信息治理运动。互联网公司、学术共同体和公益组织之间展开了广泛合作,自下而上,各出奇招,合纵连横,探索创新治理虚假信息和传播可信真相的有效途径。

  在强大的舆论压力下,互联网公司不得不承担起“领头羊”的角色。虽然他们所做的是亡羊补牢的工作,但一旦被推向前线,谷歌、脸书等大型公司态度积极。最为重要的是,以往盛行一时的“技术中立观”和“互联网自由”的理念已被彻底摈弃,为算法赋予新闻伦理和正向的价值观已经成为全社会的共识。经过20年来的飞速发展,互联网巨头积累了雄厚的经济实力和海量的数据库,他们完全有能力研发出先进的事实核查技术,并与新闻媒体和学术共同体合作,向经过认证的记者和学者开放数据使用权,接受第三方的监督。

  作为社会系统中的“桥梁”和“枢纽”,以大学和研究机构为主的学术共同体走出“象牙塔”,加强与业界的联系,为抗击虚假信息提供理论支持和技术驰援,同时致力于启迪公众,提升他们的数字素养。非营利性的公益组织在虚假信息治理中扮演了“兵工厂”和“助推器”的角色,利用其遍布全球的网络和“众包”机制,整合资源,汇聚众智,为互联网治理水平的更新迭代做出了不可忽视的贡献。当社交平台引发的“后真相海啸”由欧美波及到亚非拉第三世界国家,公益组织所发挥的作用便日趋凸显。从总体上看,虚假新闻治理的美国模式借助于民意和舆论压力之下的“自律”与“他律”,尽量避免动用行政和司法力量,这契合于社交媒体时代的传播生态,也体现了美国“大社会、小政府”的特点,其经验和教训也值得其他国家借鉴。

  注释:

  ①Hawk T.Infographic:Breaking Down the Numbers Behind “Fake News”[EB/OL].https://ivn.us/2018/02/27/infographic-breaking-numbers-behind-fake-news/

  ②Wardle C.Information Disorder:Toward an interdisciplinary framework for research and policy making [R].Council of Europe,2017

  ③Vosoughi S,Roy D,Aral S.The spread of true and false news online[J].Science, 2018,359(6380):1146-1151

  ④Nielsen R K.Local journalism:the decline of newspapers and the rise of digital media [J].IB Tauris,2015

  ⑤Jones J.U.S.Media Trust Continues to Recover From 2016 Low [EB/OL].https://news.gallup.com/poll/243665/media-trust-continues-recover-2016-low.aspx

  ⑥Pew Research Center.Social Media Use in 2018 [R].2018

  ⑦Facebook.Q&A on Election Integrity [EB/OL].https://newsroom.fb.com/news/2018/07/qa-on-election-intergrity/

  ⑧Legg H,Kerwin J.The Fight Against Disinformation in the U.S.:A Landscape Analysis [R].The Shorenstein Center on Media, Politics and Public Policy.2018

  编辑:小青

  

上一篇:国际奥组委:2024奥运会或增设霹雳舞等4个新项目
下一篇:大开眼界|暖萌小可爱穆罕买提江“C”位上线

街舞资讯热门