傅瑞德 | Fred Jame
傅瑞德 | Fred Jame

曾任某電動車系統公司行銷長。主業是數位行銷與媒體管理顧問。長年的寫作者、譯者、編輯、重機騎士、雪茄和艾雷島威士忌愛好者。 我也是養兩隻貓的犬派潛水員、健身教練、書法家。 關於我/https://fred.mba

AI寫出來的東西,未來可能影響我們的認知

AI寫出來的東西越來越像樣,甚至跟真人寫的東西已經難以分辨。這樣的進步當然可以幫人類做很多事情,但在它發展健全之前,我們也要小心一些事情,不要被表面的華麗給蒙蔽了。
本文原載於《F大叔的日常通信》電子報,歡迎訂閱

我前兩天在《F大叔的硬派行銷塾》電子報中寫了〈身為行銷文案人,AI寫作能幫你做什麼?〉這篇文章,其中分析了一下目前人工智慧(AI)自動產出文章的問題與機會。

今天則看到了來自對岸網站《少數派》的報導:

Stack Overflow 禁用 ChatGPT

12 月 5 日,程序員問答社區 Stack Overflow 發佈臨時規定,禁用 ChatGPT 生成答案。主要原因是社區內大量湧入使用 ChatGPT 生成的答案,這些答案雖然看起來合理,但大多數時候是錯的,會對社區造成負面影響。社區表示正式的對策還需要進一步討論,但目前如果用戶發佈了採用 ChatGPT 生成的答案,無論答案是否合理,都將遭到社區處理。

雖然AI現在「很會講話」是一大進步,但如同我先前在文章中擔心的:

AI也有很多很正確、而且令人驚艷的答案,但這種「一本正經、但對錯難辨的不確定性」才是真正的問題所在。

可以想像的是,之後會有許多AI生成的答案充斥問答網站(回答賺點數)、社群網站(廉價帶風向)、甚至媒體(特別是快速產出文章賺點閱的農場),到時候這些表面看不出對錯的文字,就可能搞壞人們的腦袋認知。

至於先前文章中也說過的「真人檢視」和「當責」兩個使用原則,當然就不會在這類文字的考量裡面了;而這些可能就是下一代人每天吃的知識零食、甚至正餐。

當然,真人寫的「對錯難辨文章」也有一樣的問題,不全然是AI的錯;但以AI生成文章的速度、以及連接資料的廣度,都不是幾個埋頭苦幹的真人比得上的。

更重要的是,人的閱讀時間和注意力是有限的;如果閱讀環境中有著大比例的AI文章(因為產生太容易、門檻太低),其他的文章會被輕易的「洗」掉,排擠效果會讓它們的影響力更加明顯。

我一直主張對AI作品必須保留謹慎態度、不要盲目追捧,不是因為輕視它們;相反的,而是因為它們(將會)很厲害。

(當然AI生成文字有很多用處、也有很多優點,我的前文中也有討論到;但比起這些「錦上添花」的優點,在「AI反向事實查核工具」問世之前,我們還是多盡一下人類頭腦的責任比較好。)


由於種種技術原因,各位讀者的贊助(感謝)在台灣很難取得;於是在取得Matters站方許可之後,放置我的贊助QR Code(或點按連結)。如果您願意用站內方式之外的途徑贊助我繼續寫作,歡迎利用:


CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

第一个支持了这篇作品
加载中…

发布评论