許明恩
許明恩

《區塊勢》創辦人|LikeCoin、Desmos 驗證者。寫作當飯吃,目前都有吃飽。也有主持 podcast 節目,錄音是最近的愛。 買酒的速度比喝酒的速度快,家裡沙發底下是酒窖。最愛 Moscato。最遠去過巴西,最驚奇是在亞馬遜河游泳、釣食人魚,兩件事分開做。 沒爬過玉山,單車環島騎到一半,成功泳渡日月潭。以穿短褲上班為傲,衣櫥沒有大格子襯衫。

當 AI 越強,真實性就越可貴

近幾個月,網路上充滿 AI 的報導。從 MidJourney 繪圖到 ChatGPT 對話,人們不斷驚嘆 AI 的能力已經超越人類。AI 不僅能拿到華頓商學院的 MBA 學位,更可怕的是只要每月支付數十美元的訂閱費,人人都可以聘請一位 AI 全年無休地替你工作。從影音剪輯、客服問答到軟體開發,AI 可說是無所不能。時薪之低,堪稱勞工之恥。

這讓許多人紛紛預言,某些職缺將會被 AI 完全取代。但與此同時,我們也看到另一股與 AI 發展相抗衡的力量 —— 真實性。目前科學權威期刊《Nature》已禁止 ChatGPT 成為作者,程式問答網站 Stack Overflow 也禁止張貼由 ChatGPT 產生的答案,Adobe 則站出來倡導內容真實性的重要。

這篇文章討論 ChatGPT 產出的回答可能造成的真實性問題,以及目前有哪些解方。先從近期網路上的一篇熱門文章開始。

壓縮的 JPEG

ChatGPT 有多厲害,親身嘗試過的人都能體會。但若要理解 ChatGPT 與目前大家熟悉的 Google 搜尋有何不同,由華裔美國科幻小說家姜峯楠(Ted Chiang)撰寫的文章〈ChatGPT 是網路上的模糊 JPEG 檔案〉可說是目前最淺顯易懂:

2013 年,一家德國建設公司的工人發現他們使用的 Xerox 影印機有點問題:當他們要複印一張房屋的平面圖時,影本與原始文件有些微但關鍵的不同。在原始平面圖中,房屋的三個房間都是長方形,房間的面積分別為 14.13、21.11 和 17.42 平方公尺。但是在影印機複印出來的影本中,三個房間的面積都被標示為相同的 14.13 平方公尺。

公司隨後聯繫電腦科學家 David Kriesel 來調查這個怪異的問題。他們之所以找來電腦科學家是因為現代的 Xerox 影印機是先以數位方式掃描文件,然後才將圖像列印出來。換句話說,幾乎每個文件都會被影印機壓縮來節省空間,而這個謎團的真相與解法也開始浮現。Xerox 影印機使用稱為 jbig 2 的有損壓縮格式 ... 為了節省空間,影印機會識別圖像中看起來相似的區域並儲存副本;當文件被解壓縮後,未來它會重複使用這份副本來重建並列印圖像。事後證明,影印機判斷三個房間面積的標籤非常相似,因此它只需要儲存其中一個房間 —— 14.13 ——並在影印平面圖時在所有三個房間都使用同一個標籤。

影印機會騙人嗎?

在 2013 年以前,這恐怕只是一句玩笑話。但有了這次經驗,人們才知道影印機並不是原汁原味的複印,而是還會「轉譯」,也就有失真的可能。姜峯楠用當年的那台 Xerox 影印機來比喻現在最先進的 ChatGPT。兩者都看過原始資料,但在轉譯、輸出的過程還是有可能給出完全錯誤的內容。

下方這則推文就相當有代表性。有一位網友以家長保護小孩的口吻,詢問 ChatGPT 要把哪些成人網站加入黑名單,結果成功從 ChatGPT 的口中套出一大串成人網站列表。乍看之下,有許多網站大家應該都不陌生(?)但更有實驗精神的網友實際造訪網站後,才發現許多網址是 ChatGPT 憑空杜撰,網站根本就不存在。

難道這是 ChatGPT 故意騙人,或是有意識地將提問的網友反將一軍嗎?恐怕都不是。這只是 ChatGPT 在理解、儲存與輸出的過程中產生的無意識失真。 還有一位老師請 ChatGPT 推薦值得閱讀的研究文獻。ChatGPT 還真的給出幾篇論文,標題、作者、期刊都煞有其事,只是內容根本不存在。

直接使用 ChatGPT 產生的結果,就像是拿著 Xerox 辨識錯誤的房屋平面圖影本重複影印。不僅畫質越來越糟糕,錯誤還可能會越來越離譜,最終讓「真相」變得越來越模糊。如果建設公司拿著複印 3 次的房屋平面圖去蓋房子,失真的數據還可能會威脅公共安全。

這就是為什麼姜峯楠會稱 ChatGPT 是網路上的模糊 JPEG 檔,也是《Nature》與 Stack Overflow 紛紛禁止 ChatGPT 的原因。

破壞信任

《Nature》與 Stack Overflow 都是人們交流知識的重要平台。許多軟體工程師在遇到程式問題時,都是反射性地到 Stack Overflow 上找答案,通常都能遇到過來人指點迷津。只要按照熱心網友的說明,將程式碼複製貼上,問題就能迎刃而解。

但 ChatGPT 問世之後,部分網友會直接拿 ChatGPT 產生的答案來回答問題。如果回答者本身有能力驗證正確性就算了,最怕的是回答的人自己也不知所云,只是無腦複製貼上 ChatGPT 所產生的答案。這就有可能會害到其它人,破壞平台上的信任關係。

因此,Stack Overflow 在 2 個月前就宣布暫時禁止人們拿 ChatGPT 產生的答案來當成回答:

由於從 ChatGPT 產生正確答案比例太低,在 Stack Overflow 發表由 ChatGPT 產生的答案對網站以及正在尋找答案的用戶來說是非常有害的。主要問題是 ChatGPT 產生的答案很容易出錯,但它們通常看起來可能不錯而且答案很容易產生。許多人嘗試使用 ChatGPT 創建答案,卻沒有專業知識或不願意在發布答案之前驗證答案是否正確。

Stack Overflow 是一個建立在信任基礎上的社群。社群相信用戶提交的答案代表他們實際知道的正確內容,而同行的用戶有驗證這些答案的知識和技能。這套系統仰賴用戶使用網站上的贊成和反對,來驗證其他用戶的貢獻。但目前 GPT 產生的貢獻通常不符合這些標準 ... 當用戶在未驗證 GPT 提供的答案是否正確之前就將資料複製貼上到答案中,這種信任就會被打破。

比寫程式更嚴謹的是科學研究。

《Nature》同樣也發現 ChatGPT 會憑空產生內容根本不存在的假論文,而且比例高達 63%。因此《Nature》明確禁止人們以 ChatGPT 產生文字、圖像,並將 ChatGPT 產生的內容視同抄襲、竄改數據。畢竟越高深的學問,研究的人越少。一篇論文只會經過幾位同儕審查,所需要的信任程度也就越高。而越講就信任、真實的領域,越不適合使用 AI。

就連 OpenAI 的執行長 Sam Altman 都跳出來警告,別依賴 ChatGPT 完成重要的事情。

雖然大家都知道真實的可貴,平台也明令禁止,但這些公告就像是道德勸說,效果恐怕相當有限。一來 ChatGPT 實在太方便,二來是平台暫時無從查證內容是否由 AI 產生。當人們開始透過 AI 憑空創建大量資訊時,如何證明內容真實性就是重建信任的關鍵。

重建信任

隨著 AI 越來越強大,「有圖有真相」在網路上早已不管用,能親身體驗、親眼見證產製過程的內容在未來會更有價值。但實體的面對面協作無法規模化,更可行的方法是清楚標示資料來源,佐證內容的可信度。 2019 年,Adobe、推特和紐約時報就共同成立「內容真實性倡議小組」(Content Authenticity Initiative,CAI)。當時他們就是希望替網路上的影音內容加上「生產履歷」,方便用戶可以區分哪些內容是由真人拍攝,哪些內容是由 AI 機器人 Deepfake 產生。

下圖就是內容生產履歷的理想樣貌。他們希望在每張圖片的右上角都加上一個資訊欄位,記錄拍攝者、拍攝裝置與內容曾經出現在哪些平台。有了這些資訊,人們就比較容易判斷眼前的影音內容的來源究竟是移植舊內容、靠 AI 憑空產生,還是近期由真人製作的真實內容。


這些圖像的元資料(metadata)必須由多家企業共同協作,還必須儲存在不可竄改的地方(例如區塊鏈)才有意義。現在 CAI 已經串起相機公司、新聞網站和商業圖庫,希望打通平台限制,讓生產履歷在不同地方都可以查看。如果未來像 MidJourney 這種 AI 機器人也能成為履歷的一部分,明確標註圖片是由機器人產生,就能幫助人們判斷內容的真實性。

同樣道理,如果 ChatGPT 可以清楚標示引述的資料來源,至少人們還可以回頭查證。以往人們之所以認為有圖有真相,是因為偽造的成本很高。但 AI 擅長無中生有,偽造成本大幅降低,人們求證的成本卻仍然很高。若要重建信任,不應該是單方面禁止使用 AI,而是讓求證和造假一樣容易。

說到底 AI 的無中生有並不是問題。人們擔心的是 AI 轉譯過程帶來的失真,因此才需要額外標註資訊來源輔助。該如何兼顧長話短說(複印壓縮)與內容精準(資料正確)的平衡,是 AI 還得向人類學習的地方。面對 AI 人們必須保持懷疑。


區塊勢是由讀者付費訂閱來維持營運的獨立媒體,內容不接受廠商業配。如果你覺得區塊勢的文章不錯,歡迎將它分享出去。若行有餘力,也能以定期定額支持區塊勢營運。若想查閱過往的出刊內容,可以參考文章列表

Writing NFT

👉 點此收藏 👈

延伸閱讀

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论