槛外人
槛外人

农妇,母语一般,其他语言更一般,但这些都没有能阻挡我对各种语言和文字的热爱,哪怕是看看也好。

译文:社交审查,社交媒体政策当否言论自由?

美国今年大选中,社交媒体再一次被关注,Facebook,Twitter这些大平台大有形成“第四权”的态势,它们通过自己的内部政策来删帖,封号的行为引发了越来越多的讨论,支持者认为网络不是法外之地,反对者认为它们限制了言论自由。那么它们在自己的平台上执法是否合法和正当,除了删帖、封号,平台还能做什么来抵制暴力威胁、令人反感的内容和相关信息的发布者。最近《福布斯》的记者John Koetsier写了一篇采访文章。我个人觉得这是一种思考路径,所以简单译一下,供大家一起思考。网络在形式上虚拟的,但它真正地进入并影响着我们的每一天。网络的理性需要更多人本身的理性。译的时间仓促,错误难免,欢迎指正。原文链接在此:https://www.forbes.com/sites/johnkoetsier/2020/10/25/social-censorship-should-social-medias-policy-be-free-speech/?sh=a6b7b14489a6


社交媒体应该如何处理有争议的话题或虚假信息?

另一类型社交网络Minds.com的CEO比尔-奥特曼认为,自由是最好的政策。而且,他说,这也是导致伤害最小的政策。在大选期间,当假新闻成为带有不同政治光谱各方的热门话题时,对于它的讨论便可能产生争议。

"我们讨论的界线......是围绕第一修正案,"奥特曼在最近的TechFirst播客中告诉我。"没有人真正知道Facebook和Twitter以及YouTube的政策是什么。"

这可能会被看作是一种基于自由而忽视有害后果的自由主义论点,尽管Minds确实也对有害内容进行限制。但更重要的是,奥特曼的论断是——从长远来看,禁止不良内容对我们的整体文化其实是有社会风险的。他的部分理由来自《自然》杂志关于 "全球网络仇恨生态 "的研究报告中的一句话,这句话表明,对内容进行管制只会将其分流到其他更隐蔽的地方去。

这份研究报告提到:"我们的数学模型预测,在Facebook等单一平台内进行内容安全管理只会让事情变得更糟,最终会产生一种全球性暗池(dark pool),网络仇恨将在其中蓬勃发展。"

奥特曼承认,我们都希望减少仇恨言论,以及形成安全的网络社区。然而,他提倡的不是审查制度,而是参与政策。这就是为什么他聘请Daryl Davis作为Minds社区的顾问的原因。戴维斯是著名的布鲁斯音乐人,作为一个黑人,他通过主动参与和协商对话,消除了多达200名三K党成员的激进行为。

奥特曼想知道,这种模式是否可以用数字技术实现规模化。

"试想假如Facebook上有2万名心理健康工作者和咨询师来当协调人,并真正参与其中,对于一些并不清晰的非法行为,比如非真实骚扰,比如一些边缘案例,在社交平台进行骚扰的人……如果我们有2万人有效地参与对话,你觉得会发生什么?"

这是个应当问的问题。

同样值得思考的是,对一些人来说,这不是一个理论性话题或抽象的讨论。

我个人认识一位聪明、有天赋的女性,她对软件运用性生态系统做出了非常突出的贡献,但却被厌女的网络恶魔逼迫退网,这些人真的用强奸和谋杀来威胁她。还有其他人则因为种族、政治信仰或其他许多原因而受到网络迫害。

奥特曼承认戴维斯模型(译注:戴维斯模型也称技术接受模型,它主张人对信息科技的使用受其行为意图的影响,这一模型用来探讨外部因素对使用者的内部信念(beliefs)、态度(attitudes)及意向(intentions)的影响,内外因素相加,进而影响信息系统使用的情况)并不是唯一的发展道路,社交平台有责任保证安全,这是好事。

"我的确认为社交平台的工作是让你作为一个用户非常清楚地知道如何控制你的使用体验......给你尽可能多的工具来控制你的使用体验,"奥特曼说。

理论上讲,这可能包括主动屏蔽仇恨性评论或关联人。然而,大规模地这样做,目前看来是不可能的,奥特曼承认这一点。

"指望上传到拥有数亿或数十亿用户的社交网络上的每一条内容都能得到全面审核,这是一场失败的战斗。"他说。

事实上,当特朗普总统感染科新冠病毒后,很多推特用户公开希望他死亡时,Twitter就屏蔽了这些推文,理由是其政策规定 "不允许发布期望对任何人造成死亡、严重身体伤害或致命疾病的推文,此类推文须删除"。这话对于包括女性和有色人种在内的很多人来说是个新鲜事,他们多年来一直在网上被隐性和显性的死亡威胁着,而Twitter却没有进行任何干预。

大多数社交网络都采用了某种形式的人工智能来寻找和阻止令人反感的内容,但坦率地说,它远非完美。案例:最近,加拿大的农民被Facebook标记了他们所发的洋葱照片,且之后被删除,因为它们"与性有关 "。除非平台有了数量级的进步,否则很难知道它们如何让我们可以自主控制自己的体验,并足以以此避免网络恶魔的攻击。

这不是一个简单的问题,也没有一个简单的解决方案。奥特曼说,算法已经控制了我们所看到的很多东西,硬生生的现实泡沫将人们分开和分裂只是一个潜在的结果。

"有越来越多的证据表明,正在发生的事情,大型网络上的内容政策正在助长文化鸿沟和大量的两极分化和内乱,"他告诉我。"而像迪雅·卡恩也做过’直接与仇恨正面交锋’这类的TED演讲。而实际证据表明,这也确实是改变思想的唯一途径。你几乎可以确定无法改变他们的想法,但如果你禁止他们发表言论,那么事实恰恰相反。我的意思是,如果你禁止他们,你就无法与他们沟通。"

这是一个高难度要求。

这有一定的道理:我们如何指望机器来监督我们的表达和行动,而不是利用人类的个人说服能力?但要安全、大规模地做到这一点,似乎也是不可思议的挑战。


CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论