关注数字极权(监控审查宣传)、社交媒体和广义AI带来的社会问题

互联网数字宣传战:一场并不奢望我们能大胜的战争

在信息时代,政治宣传(propaganda)早已超越了传统的【官方渠道推播亲政府的政治信息】的手段,而常常以水军/網軍(astroturfer)介入公共讨论的方式来推广特定的政治理念,进行政治宣传。这种手法对多数中文使用者来说恐怕并不陌生。简体中文世界里,大家嘲讽的五毛就是在进行这种政治宣传;港台中文世界我了解不多(@王銘宏 在Matters上发表过相关研究),但我想大家也应该对翻墙到FB、INS刷屏的中国水军有所耳闻或者目睹。

这里可能首先会引起一个有趣的争议,什么是政治宣传(political propaganda)。我倒无意于进行定义上的争论,因为前人已经做得太多。只是想说明,在学界的共识里政治宣传并不一定来自于政权机构,而只是强调“systematic / 系统性的“ (Jowett and O’donnell 1986)。因此,哪怕翻墙而来的中国水军(或者叫自干五、小粉红)真是自发组织的,那也可以被视为是政治宣传。


大概从2016年美国大选开始,社交媒体上的水军和虚假信息突然得到了极大的重视,同时也被认为互联网上的政治宣传的一部分。虽然无法实际衡量它们(特别是俄国水军)对美国大选的实际影响,但确实不少研究(就不一一列举了)都或多或少地表明这种手段的有效性。而且,这种利用水军和虚假信息进行政治宣传以影响社会观念和现实的事情远远不限于美国或者是英文互联网世界(eg. 英国脱欧),甚至也不只是中文互联网世界(不胜枚举)。委内瑞拉、巴西、印度、韩国、乌克兰……可以说,利用社交媒体进行政治宣传进而影响现实政治已经是一个普世的现象了。

但有时候水军的出现,甚至都不一定是为了推播某种观念。Molly Roberts 在她的书里提到了中国审查有一种方法叫做flooding(灌水)。大意就是在出现负面新闻时,用大量无关或者意义不大的信息灌水相关的讨论,来转移民众的讨论重点,以达到阻止敏感信息产生和传播的目的。我其实更倾向于把这种招数当作政治宣传,不过是一个相对被动和临时的宣传手段。

就当下的经验来看,水军的另一个目的还可能是制造社会的分裂和混乱。一个常见的偏见是,水军和虚假信息是一种泛滥于极右翼的现象。但其实,左翼并不能对这种问题免疫。水军的目的是增强传播、扩大分裂,那同时出现于左右两翼,刺激左右互搏,自然就是最好的选择了。既然能水军可以用转发来煽动对立,那再点情绪化的言辞或者假新闻,也就是不可避免的了。对某些类型的政治宣传来说,分裂混战可能比一边倒要好,这是真的 Chaos is a ladder(“混乱是一个梯子“,语出《权力的游戏》)。

在关于政治宣传的研究和讨论中,还有一个重点是机器人(bot)在政治宣传中的使用。有时候这个问题甚至会引申到人工智能和自动化力量对人类的影响上。这些都很值得重视,因为计算机程序和合适的社交媒体能够赋予使用者以空前强大的影响力。不过值得澄清的是,水军并不等于机器人,它们很可能是由人类操作的,也因此水军的互动不一定就是呆板的。@yucj 问过“不想給機器人統治網路怎麼辦?”。但在我看来,我们在互联网上面临的威胁可能未必是机器人,或者自动化手段。真正可能要解决的问题是,【不想让被网络空间里充满被恶意操纵的信息,我们应该怎么办?】

而且,数字宣传战里,传统政治宣传里的“权威模式”也不会消失。意见领袖们/网络名人们被收买来传播特定立场的信息并不罕见,有时候这种方法甚至会更为精细巧妙。从头培养意见领袖,争夺话语权;伪装成普通博主用特定信息吸引相应群体,在时机成熟后推进政治宣传;购买有大量活跃真人粉丝的账号,再推广政治宣传。很多内容@Puma Shen已经在演讲中提到了,我就不再赘述。


互联网上的各种政治宣传能够大行其道,除了社交媒体平台的设计对它们有利、容易形成意见一致的回音室(echo chamber)外,我个人以为人类的认知局限可能是一个很重要的原因。可能不少人都听说过确认性偏见/确认偏误(confirmation bias),也就是,哪怕同时看到正反两方意见,人们也更容易坚持自己以前所认为的,或者更容易轻信支持自己既有观念的证据。甚至,在遇到了相反意见后,人们甚至会固执己见,强化既有观念(这也就是所谓的backfire/逆火效应)。政治宣传就是利用了人类的薄弱处,才能够靠着虚假信息和情绪化内容不断激化矛盾,进而影响现实政治。一百年前,用着报纸、广播是这样;一百年后,用着Whatspp, 微信 还是这样。

而这些认知局限能如此强烈的影响人们,个人以为还有个重要原因是,人们太在意别人的立场或者身份了,或者说倾向于去站队/给人贴标签。戏谑地讲,就是太容易去政(治)审(查)别人的成色足不足。在这种环境下,人们就太容易去产生in-group / out-group bias,也就是想你是不是和我一伙的——如果不是的话,【非我族类,其心必异】。再加上社交媒体本身赋予了每个人发言的机会,虽然别人未必看得到,但是我怀疑这种类似于endorsement(背书)的意见表达行为是很多人越来越固执己见、变得激进化的重要原因(所以我特别赞同@Yeefun 说的,“慢點下判斷”)。

关于这个问题,很多人说得比我好,推荐@iyouport的系列文章:信息分析心理学: 证据评估中常见的偏见(1)信息分析心理学: 局部一致的骗局和不确定性证据(2)信息分析心理学: 因果认知中的偏见(一)(3)信息分析心理学: 因果认知中的偏见(二)(4) (原网站打不开了,只好用这些链接。更为详细的内容可以参考《情报分析心理学》)。

人类的认知能力局限如此之大,以致于我并不期待虚假错误信息能够在社交媒体上绝迹,或者政治宣传再也不会找到受害者。


很多人都已经意识到了互联网政治宣传这个问题的存在,但怎么解决却是个更大的问题,甚至这未必是一个可以解决的问题。政治宣传、水军和虚假信息恐怕是一个我们需要永远面对(就像前人们面对类似的问题一样)的难题,我们的目标只能是如何将其控制在不产生巨大威胁的范畴内。

但我觉得讽刺的就是,针对数字宣传(computational propaganda)的威胁,(在我可见范围内)社交媒体巨头选择采用的办法却主要是数字审查(digital censorship)。审核机制或许是制止极端有害信息泛滥的最后防线,但在明显公认的不当或虚假信息和有冒犯倾向、让人不舒服的信息之间,有着极为宽广的灰色地带。让科技巨头们的普通审核员们掌握着信息筛选过滤的尺度,控制着人们在网络上所接触到的信息,这本身就是一件特别危险的事情。

即使要立法来应对这些问题(公共政策上的尝试应该是必需的),如何确定惩罚的对象、尺度和标准,要赋予社交媒体多大的言论控制权力更是一个无法轻易解决的难题。更何况,(尤其是在非民主国家)权力机关更是乐意以保护社会此为借口,利用审查机制来按照它们的意图“净化”网络。

我个人更乐见的努力其实是在社交媒体的机制设计上的创新和尝试,比如在之前的评论回复里,(针对虚假信息的问题)我写道:

针对资讯发布者,可否考虑de-identify的方法?就是用户可以在看到某条消息后(因为各种原因)选择关注发布者,可以查看发布者的口碑但看不到身份,并且今后发文时关注者也看不到身份。比较类似于一个记性很差、永远认不出人的读者在用social media
……
其实有点类似于作者匿名的文章评审,不让读者的主观bias或者服从权威的心态起效,而是聚焦于内容。同时也能让作者不用担心文章所带来的争议,但同时对文章的赞赏与批评还是会影响到作者本身的reputation。
我是觉得,信息只要本身能够形成口碑就可以了,不一定要把这个reputation归到作者本身。我们可以按照信息本身的value进行推荐和阅读。读者只要选择关注了(匿名的)信息创作者,他们还是可以收到来自于这个匿名品牌的供给。
这样可能对读者来说是比较好的,只需要关注写过好文章的作者而不需要去在意是谁。但是对作者和大多数社交媒体来说,incentive就可能降低了,因为失去了运营账号、产出内容的一大动机。所以就需要在其他方面的激励补充(比如数字货币)

不过,这些暂时都只是臆想了,欢迎大家更多的意见。了解和反击互联网政治宣传,这些并不是容易的问题。

【本文是系列文章的第一篇,聊作不完整的前言。计划中接下来的两篇分别是针对他国和泛中文圈互联网世界的政治宣传研究介绍,顺便补充一下这篇的内容。】

3 篇關聯作品
網軍9信息战 3政治宣传4
45
45

回應58

只看衍生作品
  • Leslie
    關聯了本作品
  • 作者的意思是只有偏向中共才是宣传。看到这里我发现此文乃系统性的宣传品。

    • 我这篇文章还没怎么讲中国(之后要发的下一篇才是),别着急总结。

      另外,“系统性”也不是可以随便套的词。你不能因为我写得(但愿/也许)有条理,就说是“系统性”产品嘛

    • 是吗?你在文中随便给所谓小粉红戴“系统性”的帽子又算什么?

  • 这个问题我在论述言论自由时有提及,整个问题的关键在于政权与政治言论的关系。如果政治言论对政权的确立不起影响,那么企图影响政权的那类政治宣传也就丧失了意义,剩下的只是纯粹的政治观点的表达和交流,而非指向性的攻击。所以我们要做的,就是切断政治言论对政权的影响即可。分隔两种事物的普遍方法是用“框”把其中之一框起来,或同时把两者都框起来,比如我们怕被电线电伤,就给电线包一层绝缘层,或同时给自己穿上绝缘手套。同理,我们要么把政权的确立框起来,要么同时把政治言论框起来,但我们追求政治言论自由,所以除了违法言论之外便不应对政治言论动手,所以只需把政权的确立框起来即可。我们要用到的工具就是政权的确立程序,即让政权按指定程序产生,并且程序在设计上不把人们的政治看法作为计分项即可,其中“民选指标,指标选人”这个框架就能做到,因为指标并未把人们的政治看法作为计分项,所以政权的产生将不受政治言论的影响,所以指向性的政治宣传将丧失意义。(补充一点:相应程序要能解决认受性问题)

  • 对twitter感到失望,对fb感到失望,对墙外的中文互联网感到一些沮丧,和一丝恐惧

    • 但是他们不觉得自己是宣传啊

    • 欧美内部这种propaganda 指控实在太多了……很多信息的传播都可以被人直接说成是“宣传”,但是当说者听者对这个概念没有共识时,就鸡同鸭讲了:这和我把你的言论说成是A和说成是B没有本质区别,只是一个label

      欢迎你去读一下前人对“宣传”的定义,然后自己再重新梳理一下,写一篇你怎么理解“宣传”的,看看如何能够既符合常识又逻辑严密

  • 作者讲得非常有趣。我对Propaganda也有一些自己的思考,希望作者能多谈一下:媒体算法在宣传中的作用、利用经济杠杆进行宣传(如:政府或党派利用政策上或财政资助的倾斜控制媒体声量)、利用独立运作的民间代理进行宣传(以撇清政府行为)

  • AndyzZ
    關聯了本作品
  • Notes:

    凡有组织形态即可视为「政治宣传」

    凡是起到操纵信息之目的的即可视为「水军」

    确认性偏误需要被纠正

    现有的纠正方法几乎只有审查

    • 也许需要扩充一下:

      1. 政治宣传的一个特点是有组织性/系统性(但这不是全部特点)
      2. 偏颇信息,操纵舆论其实是宣传(propaganda)的特点之一,有时候并不一定是靠水军(比如官媒)
      3. yes, 我认为确认性偏误(以及人类的其他认知缺陷)是这类互联网宣传之所以能成功的重要原因
      4. 官方(政府、社交媒体)的反击策略几乎就是审查/审核。不过民众其实可以用fact-check之类的手段来反制,只是效果我觉得不理想
  • AndyzZ
    關聯了本作品
  • 1. 我觉得“前台自愿,后台实名”的做法是正确的。问题在于,由谁去裁定他散布的讯息是否触犯法律?还有谁才有资格去查看后台?这些裁定者(独立司法)和检查者(执法权)有没有第三方的势力去监督?

    2. 至于资讯的真假,我觉得不能由某势力去筛选。人总会有偏见,有主观想法,但把所有真假消息摊开来,让一切透明化,让大众去分辨更好,不然也只会让大家成为followers而已(前提是教育,大众要有独立思想的能力)。我认为,假新闻或阴谋论之所以能大行其道,讯息不透明化绝对是最重要的因素。

      1. 后台只要要求“实名”,就很难不被政治权力介入判断和查看(没有政治权力,也很难要求用户实名),要监督裁定者和检查者其实相当困难
      2. misinformation是信息世界的黑市
    • 1. 我的立场在于别高估人性。公权力的介入无可厚非,但一定要有第三方监督,形成一个三方相互制衡的循环。

      2. 问题在于为何会误传?是有意还是无意?我相信只有透明化,公信力和问责制才能解决这问题。

  • 这可不仅仅是一场宣传战

    察网:网络意识形态安全的四大隐患及其防御

    https://chinadigitaltimes.net/space/%E5%AF%9F%E7%BD%91%EF%BC%9A%E7%BD%91%E7%BB%9C%E6%84%8F%E8%AF%86%E5%BD%A2%E6%80%81%E5%AE%89%E5%85%A8%E7%9A%84%E5%9B%9B%E5%A4%A7%E9%9A%90%E6%82%A3%E5%8F%8A%E5%85%B6%E9%98%B2%E5%BE%A1

  • 民進黨的網軍也不比老共的五毛黨差

  • 柯痞2020
    關聯了本作品
  • 用时间线等数据可视化方法,或许能帮助人类突破那可怜的记忆,消化更大量的新闻消息。或许这应该是journalism的方向。

  • 謝謝你與 Matters 社區分享你的創作。這篇文章已被選入本週 Matters 通訊,推薦給所有 Matters 用戶。為了鼓勵優質作者的創作,每篇選入通訊的文章,都會由站方發送 5MAT,這 5MAT 已經到達你的帳戶,期待你的下一篇作品!

  • 很有趣的提议,匿名化的确会大大减少confirmation bias。不过就像@Pasqual提到的,一个简单的reputation评分是很容易被操控的(刷高/刷低),除非可以看到这个用户的哪些言论让它reputation升高,但这样就破坏了匿名性。

    匿名化另外一个问题就是言论会非常随意。我感觉匿名作为一种情绪化的社交是可以的,或者非严肃话题。