May we live hard and die out. https://www.facebook.com/yucj0123

提問:不想給機器人統治網路怎麼辦?保障匿名的實名制平台是可能的嗎?

背景:資本和軍事機器人全面進攻網路社群

最近有篇台灣犯罪學者沈伯洋的演講摘要在 Facebook 上十分熱門,內容主要是在介紹「俄羅斯網路研究局(IRA)」如何透過假的個人帳號、假的社團、假的理念型粉絲專頁,在美國虛擬社群上臥底數年,並且在關鍵時刻(例如美國總統大選時)進行攻擊行動:

早在五年前,俄羅斯政府就著手研究如何影響美國的總統大選。首先他們會研究哪些問題最能引起社會對立,後來確定以「黑人議題」為主軸。他們發動的方式並不稀奇、就是你我日常生活的一部分。首先,他們大量利用購物網站搜集黑人社群喜歡的顏色、資訊呈現等等美感偏好。利用這點,俄羅斯網軍成立 76 個 Logo 會吸引黑人社群的臉書粉專及 IG。這些粉專的性質有點像台灣的爆料公社,他們不斷轉發被黑人被白人警察霸凌的第一手影片,配合假帳號互相轉傳、炒熱度。
……下一階段,沈伯洋指出俄羅斯網軍開始結合地方力量,整個組織就會像熱心的團體,不但幫你抒發身心靈壓力,也幫你轉發工作資訊,他們甚至連黑人小農的商品也請專業寫手幫忙推銷,然後聯合假帳號一起宣傳,讓粉絲更信任這個機構。如此一來,你的生活就會和這個粉專建立更加緊密的關係。
……除此之外,俄羅斯網軍也開始打入通訊軟體上封閉的社群,這時在購物網站上蒐集的大量偏好資料終於派上用場,他們會用你喜歡的呈現方式製作「長輩圖」,大量在 Whatsapp 上發送。
……沈伯洋解釋,這些網軍粉專雖然得到百萬粉絲,但不一定所有人都能帶風向,畢竟「萬人響應,一人到場」也是虛擬世界上很常見的。於是網軍開始實體練兵,他們會真的去主導社會運動,估算每次可以動員多少人到場。
……放了四年線,網軍在最後一年要開始「收網」。沈伯洋表示,他們首先會開始攻擊主流媒體,把一些小錯誤無限上綱、攻擊他們製播假新聞。他舉例,像是CNN、紐約時報都被攻擊,最後的目的就是要讓粉絲相信「只有我們是真的」。
……到了最後半年,網軍開始衝刺,利用四年的信任施行他們真的想要達成的目標——「製造假新聞」。這些社團開始散播各種陰謀論,沈伯洋舉例,他們宣稱「希拉蕊是複製人」、「希拉蕊是女性主義者卻說女生是垃圾」,這些看似荒謬的訊息卻成功達到網軍的目的,引起百萬次的轉發。俄羅斯網軍沒有刻意稱讚川普,但把希拉蕊貶低,目的就是希望這些大多支持民主黨的黑人社群不要出門投票,只要進步派的票沒有被催出來,就足以讓川普當選。

我在網路上稍微 survey 了一下,這些內容主要的資料來源,應為和美國參議院「假訊息聽證會」相關的一些公開報告和調查。包括:

這些內容揭示的是,大規模、有組織的真人或機器人情報特種部隊,已經開始入侵網路領域,就如同台灣社會學者劉華真在《端傳媒》一篇關於台灣三一八運動的專訪中提到:

三一八那一波抗爭風潮能夠成功,一個重要原因就是新的網路技術突破了傳統媒體 ,打出一個空間,而且進步派很快佔領了這個策略高地,開始散布各式各樣的重要訊息,然後建立一個很初步的節點,訊息可以往外散。問題是,新的科技可以是你的助力,但也可能是殺傷你最大的武器。因為,掌握新科技的是誰?是資本啊。

或許有些人會覺得,這些現象不過是舊有的政治、企業公關伎倆,不過和行之有年的中國企業網路水軍,或是台灣論壇的假網友、業配部落客是一樣的,不是什麼新現象。但是無可否認的是,這些技術的影響力和規模,已經突破它歷史上的高點:有組織的網軍不只可以決定某些消費者選擇了哪樣保養品、哪個飲料、某場市長選舉,他們甚至可以決定一個社會的主流價值,可以破壞社群互信的基礎,可以剝奪弱勢的生存權利,甚至可以決定國家主權存亡。

怎麼辦?

我自己個人對網路社群的理解,十分受一位日本學者濱野智史所引用的概念「架構」(architecture)所啟發。

這位學者在分析 2000 年到 2008 年間流行的社群網站服務時,強調將網路作為特定「架構」所構築的場所, 而非「媒體」來看待。

濱野智史所理解的架構,是指除了規範、法律和市場之外的一種「控制方法」。它特點在於從物理上限制行為的可能性,並且可以讓被控制者在沒有意識,不覺察的情況下,遵照規則產生行為。

在這種觀點底下,各種網路服務的提供者,可以藉由資訊技術的設計,控制引導人類的使用行為和社會秩序。

於是,各種網路服務架構設計的不同,將可能造成不同使用者行為和習慣,進而成為一套秩序或文化。使用者在網路上的行動和社會關係,會因為網站限制他不能做什麼和鼓勵他做什麼,而受到各種不同網站功能設計的影響。

(好啦研究 STS 的朋友們一定覺得這三小過時科技決定論,但這裡只是想提及虛擬社群中架構設計的影響和掌握技術者的權力。這感覺就像在看 Switch 的《薩爾達傳說》怎麼把我們當倉鼠般玩弄

我們也可以用這樣的觀點來理解這篇文章發佈所在的平台 Matters 的主張,也是 試圖用新的技術和認證方法,打造出一個新的網路內容場域文化、規則和運作邏輯

如果從這樣的角度來想,會不會今天資本和軍事力量之所以可以成功透過大規模機器人進行資訊誤導攻擊,是因為存在某些網路社群架構設計上的漏洞,才容許他們如此撒野呢?或者反過來問,我們有沒有可能研發出某種新的、突破性的網路社群架構,來反制大規模機器人攻擊造成的資訊誤導呢?

Story of Stuff Project 曾經作過一隻十分值得一看的動畫短片(中譯為《民主失竊的故事》),講述財團企業作為資本機器人,怎麼樣在言論市場上不公平地霸凌其他人,宰制言論市場。而他們提出的解決方案,是透過法律來限制非自然人在言論市場中使用資本的力量,以免整個競爭是不公平的。

類似這種減少不公平的犯規的概念,透過「架構」有可能達成嗎?直覺性地來想,只要透過網路實名制,確保在某個社群平台上,網路上面發言的帳戶和真實的自然人是一對一的關係,或是少數的多對一關係(容許少數角色分身,如同線上遊戲),就直接杜絕了機器人和假帳號參與誤導的可能。

Facebook 創辦人 Mark Zuckerberg 雖然現在他的公司平台有一堆假帳號沒辦法處理,而他也因為這些假帳號獲得平台流量,但諷刺的是,他在 Facebook 剛推出時出的專書網路專訪,顯現他是一位極端網路實名制主義者,他強調線上身份和線下身份必須是一致的,甚至認為在網路上扮演不同的身份是不正直的(lack of integrity):

The days of you having a different image for your work friends or co-workers and for the other people you know are probably coming to an end pretty quickly. Having two identities for yourself is an example of a lack of integrity.

我並不認同這樣的極端網路實名制。首先,我認為人本來就不是作為擁有單一的面向(face)的個體而存在的,我也並不認為要為了他人的方便,就該給他們權力限制我人格的一致性。其次,如果現實生活我就是個魯窮廢宅,線上還要當個魯窮廢宅,這樣實在爆炸無聊。

如果想要兼顧網路社群的穩定性和可能性,我們設計的架構就不可能像 Zuckerberg 先生一樣,強調身份要完全一致,而是只需要確保線下的某個個人身份,只可能對應到一到數個線上身份。

但即使是這樣,還有另外一個網路自由主義者會擔心的點是,新的架構是否會扼殺原本網路架構中存在的匿名性?是否會在掃除機器人的同時,反而會增加軍事、政府和資本對個人的控制能力?

這也就是我剛開始 survey 的問題,也就是在思考我們是否有可能設計出一個架構平台,或在現有的架構平台上進行改造,達成以下兩件事情:

  1. 十分可靠地確定線下的某個自然人身份,只可能在平台上對應到一到數個線上身份。
  2. 能夠達致跟現在網路平台同等,或甚至更高的匿名性,降低軍事、政府或資本力量干預個人言論的可能。

如果做不到,是因為這兩件事邏輯上就是不可能同時達成,一定必須取捨的嗎?或者是有什麼技術上、成本上或政治上的瓶頸?





網路實名制1網軍7資訊社會學1假新聞18民主58
25
25

回應21

只看衍生作品

評論區域升級啦!

現在「回應」包含了評論和關聯本作品的衍生創作,你可以選擇「只看衍生作品」。

  • 指望实名制单一方法解决是不实际的。只要有gov参与,实名制对他们只是小问题。

    解决思路可以从两方面着手:

    一是,是否可以增加对手造假的成本。资本是有很大力,但资本也是逐利的(即使是gov,预算也不是无限制的)。成本提高后,利润必然下降。实名制是可行的手段之一。

    二是,可否给民众识破对方的法宝。一旦民众都会看谁是水军,那他们就白干了。当然水军会调整他们的策略来掩藏自己,这个时候就需要技术力量介入,时刻根据蛛丝马迹,发现对手痕迹(类似美剧Home Land),提醒民众最新策略。

  • AndyZ
    關聯了本作品
  • A related deprecated project: Mozilla Identity - Persona
    https://developer.mozilla.org/en-US/docs/Archive/Mozilla/Persona

    1. 我很怀疑这种匿名的实名制的可行性以及unintended consequence。这很接近于让商业公司控制大量的数据,类似于@刘果 说到的,形成新的digital authoritarian power。能不能以第三方核实的形式来做,我不确定。
    2. 水军的问题,我觉得核心不在资本而在于权力。哪里掌握了数据,哪里就有权力。而最容易掌握数据和技术的,其实还是政治权力,因为它可以实际影响存在于现实中的科技公司
    3. 资本,或者说商业公司确实和水军问题有关。其实这些公司有动机且有行动在打击类似的水军账号,但是要百分百禁绝的成本太高,比较无解。网络社群架构确实应该和水军的规模与行为模式有关,但要怎么解决,我没想好
    4. 我挺担心,即使没有水军或者有了匿名性的实名制,假消息的问题也解决不了。这可能是我下一步的研究重点,确认if the spread of mis(dis)information is the outcome of human nature in the Information Age
    5. 再立一个flag,一个月之内在matters把自己的Chinese Twitter Propaganda研究发出来。也是讲水军的,我相信很有信息量,而且结果和牛津的computational propaganda project的中国水军研究结论正好相反
    • 我看到了飘扬的flag~~~

    • AndyZ
      回覆
      lee

      Flag插得太多,像唱戏的

  • 好棒的文章,深具啟發性,跟 @Yeefun 一樣的感覺哈 希望自己多反芻吸收下能夠回饋些具體的構想~
  • 我覺得你的觀點很發人深省,但針對你的問題,目前我還沒有什麼能回饋的。 我只想到,之前看《TOO BIG TO KNOW》(https://www.books.com.tw/products/0010631097),它在頁 103 提到:網路會不斷累積知識,讓網路更好使用,也更有價值。 但在社群網站上,我卻常感覺到,知識很難累積。很多討論都是跟著事件一時爆發,雖然訊息很多,但卻難以分辨真假,也難以保存,更遑論累積。 隨著事件結束,討論也就結束、消失,船過水無痕,就像什麼都沒發生過一樣。等到下一次類似事件爆發,又再一次循環。在這過程中,好像什麼東西都沒累積下來。 我在想,這是不是也是「架構」的問題?我們有沒有辦法設想一個架構,能夠累積知識。讓類似的討論能夠建築在過去的知識,層層遞進、深入,而不是每次都重頭來一遍?
    • 維基百科是不是這樣“架構”的正面例子?通過劃定討論和合作的型態,來協助知識的累積。
    • 但維基百科似乎並不適合討論? 我想像的,比較接近是有一個社群網站,方便討論,而這些討論所產生的精華又能累積下來。在下次類似討論出現時,能出來(提醒大家?)作為討論的根基。也許我們還可以設定一些機制,讓討論更聚焦、排除垃圾留言等等。 這個網站的討論形式是一個例子: https://en.arguman.org/
  • 關於第一個條件,似乎應該這樣修改比較完整: 1. 十分可靠地確定: 1-1. 線下的某個自然人身份,只可能在平台上對應到一到數個線上身份。 1-2. 任何一個線上身份,一定是對應到線下的某個自然人身份。
    • 我覺得兩個條件似乎有矛盾之處。能夠確鑿確定真實身份,意味著網絡平台需要和物理世界的權力結構聯手,不管是政府、運營商還是別的權力結構。這也讓平台對於用戶有了知情的權力;而為保證匿名的可靠,需要避免這種權力。 也許一種方式是,優先匿名性,但是給予完善的信用和口碑積累模式:讓網絡身份無法對應到真實身份,但有好的信用和口碑才更容易被看到。
    • 感謝提點,指出「優先匿名性,但是給予完善的信用和口碑積累模式」這個方向,幫助了我更清楚地去思考整理我在探討的問題,和我正在想像的解決方案是什麼: 我想要解決的問題是,現在人類可以用程式大量生產出錯誤的訊息,並且可以製造大量假的網路身份散佈這些訊息,怎麼辦? 針對這個問題有兩個大方向去想解決方法: 解決路數一:建立針對資訊本身可信度的判別機制。 解決路數二:建立針對資訊的發佈者的可信度和值得溝通度的判別機制。也就是說,有套機制讓我們判斷這個 id 的意見是否值得參考;或是這個 id 即使與我們意見相左,但為了維繫社群,我們是否仍值得真誠與之討論互相說服。而此套機制,或許即可稱之信用、口碑,而我們可據此「以人廢言」,省去查證和無效溝通的成本。(當假 id 數量成長到一個量級,這成本就會很可觀)我其實模模糊糊在想像的 solution,是在這「以人廢言」的路數底下的,一種像 OAuth、Avatar 的東西,可說是一個很難或無法反查到線下的個人,但是有一致的口碑和信用的網路人格。與線下身份是否相連或許只是「可信度」、「值得討論度」的其中一個指標,且並非充分或必要的條件。