施典志
施典志

資深編輯、譯者、社群經營者、講師、自由部落客。喜歡站在用戶角度思考各種各樣的本質問題。曾任PC home雜誌副總編輯、T客邦創辦人、博客來總經理特助、Yahoo奇摩社群經理(無名小站、知識+、Flickr)、Rocket.cafe 火箭科技評論編輯總監,現任方格子顧問/平台營運總監。

演算法的美麗與哀愁

演算法不只決定電腦如何運作,甚至決定了你我看到什麼訊息、如何生活,我們已經逐漸成為演算法的奴隸⋯⋯

最近一陣子,我有一支放在 YouTube 已經十多年的老影片,我明明什麼也沒做,但兩個月間突然湧進幾十萬個點閱;許多觀眾留言,都說「神奇的演算法,把這支影片帶到 2019 年」,讓他們看到這個已經再也看不到的神技。

另外,每次我向許多網路行銷人、社群編輯分享關於網路行銷、社群行銷的觀念與做法時,總是會聽到許多學員抱怨:「平台一天到晚改演算法」,讓他們的網頁點閱、貼文觸及受到很大的衝擊。

事實上,演算法不只決定我們能在 YouTube 上看到什麼影片、在 Google 上會搜到什麼網頁、在 Facebook 上能看到什麼內容,演算法更在許多我們難以感受到的層面,日日夜夜影響我們的生活。

因此,大家都應該認識演算法,以及它帶來的便利、傷害與挑戰。

演算法是什麼?

演算法這三個字聽來神秘,其實再稀鬆平常不過。也許你聽過這個笑話:

工程師下班前,老婆打電話來說:「下班後去超市買十個蘋果回家;如果有看到西瓜,就買一個。」結果工程師就照著老婆的吩咐,帶了一個蘋果回家。

這位工程師的可憐下場,自然不問可知,但其實他的思考邏輯,正是演算法:

若沒有看到西瓜,就買 10 個蘋果;若有看到西瓜,則買 1 個蘋果。

演算法就是電腦用來計算數值、進行判斷或處理資料的一套準則,也是電腦科學基礎中的基礎。我大學時修過「計算機概論」這堂課,演算法就是這門課中的一大部分,用來探討各種電腦的基本計算法則:怎麼計算可以算得最快、用最少步驟算出來、最省電腦資源。

在大學的演算法課本中,有不少非常基礎的演算法,例如「排序」就是其中一種基本的資料計算與操作;光是把一堆資料由大排到小,或由小排到大,就有很多種不同的演算法。

想把程式寫好,不熟悉這些基本演算法是不行的。

隨著電腦要處理的工作愈來愈複雜,演算法也愈來愈複雜,甚至變成許多科技公司賴以維持商業競爭優勢的利器,像大家之所以愛用 Google 搜尋,就是因為 Google 的搜尋演算法又快又準,搜尋的用戶體驗勝過其他競爭對手,這也成就了 Google 的一番霸業。

Facebook 也是如此,靠著大量的個資和精確的演算法,Facebook 能夠從你的眾多朋友動態更新、大量粉絲團、社團貼文和廣告中,篩選出你可能最感興趣、最想互動的內容,推送給你看,讓你被優秀的用戶體驗黏住,難以戒掉臉書癮。這也成就了 Facebook 在全球的覇業。

演算法為什麼經常得修改?

Google 和 Facebook 的演算法經常改來改去,讓許多行銷人和社群編輯大嘆生意難做;只要演算法一調整,網頁排名就大洗牌、社群貼文的觸及率也大受影響。大家都在罵為什麼平台演算法老是改來改去,根本就是死要錢。

話說回來,平台死要錢也沒什麼不對的,人家又不是公益團體或慈善事業,賺錢本來就是天經地義,不是嗎?罵人家死要錢,只能出氣,解決不了問題。

換一個角度來看,大家都在努力研究演算法的各種「特性」,想辦法讓自己的網頁排名盡可能往前(所謂 SEO、「搜尋引擎最佳化」就是這回事),也想讓自己的粉絲頁貼文可以觸及最多人;如果平台沒辦法確保演算法算出來的結果,是用戶最想要的,提供最好的用戶體驗,用戶很快就會棄平台而去。

舉例來說,有不少人在做所謂的「白帽 SEO」,也就是針對 Google 提示的原則,改善自己的網頁,像是讓網頁內容變得豐富、架構清楚、經常更新、讀取速度加快、提供行動版等等,但也還是有更多人在做「黑帽 SEO」,試圖找出演算法漏洞,以作弊的方式欺騙 Google,讓自己不怎麼樣的網頁也能名列前茅。搜尋結果要都是這些作弊者的爛網頁排在前面,用戶就不會再用 Google 了。

同樣的,在 Facebook 上有一大堆訊息等著給你看,如果篩選演算法都不調整,遲早會被人摸透;這時用戶就會看到一大堆不想看的訊息,一堆陌生人來搭訕,以及許多你根本不想點的廣告。這樣 Facebook 就會變得很難用,用戶就會用腳投票,改用其他平台,廣告主也跟著落跑,Facebook 就賺不到廣告錢了。

如果 Google 和 Facebook 不經常改演算法,下場就會非常淒慘。各位行銷和小編們就別再罵平台改演算法了,因為真的不改不行。

演算法決定你我人生

這個社會幾乎在任何地方都廣泛使用電腦,也因此演算法並不只是在 Google、Facebook、IG 或 YouTube 中出現,其實出現在生活中各角落,你我幾乎閃躲不掉。

更糟的是,由於這些演算法大多是商業機密,其不透明性造成社會不易監督;一旦用在不適當的地方,就會對我們造成難以預期的傷害。

以下隨便舉幾個例子:

  • 到 ATM 提款:如果你神色緊張,還拿著手機操作匯款功能,銀行的 AI 演算法會透過畫面,判斷你很可能正受詐騙集團指示;ATM 畫面就會出現關懷訊息;如果你戴著安全帽和口罩,AI 演算法也看得出來,會阻斷交易,要求你脫下來。這算是比較好的使用案例。

    https://www.ithome.com.tw/news/131697


  • 中國的「社會信用評分系統」,收集從監視器或其他人的舉報資訊,利用演算法算出某個中國人民的「社會信用評分」,分數太低的人不能搭高鐵、坐飛機,小孩進不了好學校,自己找不到好工作。根本全民監控。

    https://www.epochweekly.com/b5/611/19010.htm

  • 不少美國大公司採用 AI 辨識系統協助徵才,透過 AI 演算法在面試過程中監看面試者的臉部表情、用字遣詞和語調,算出這個人的「勝任分數」,供求才公司參考;但我們不知道這套系統是以什麼條件來篩選,明顯可能造成求職的不公平。

    https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether-you-deserve-job/


  • 世界各國有愈來愈多警察單位,開始利用 AI 系統進行犯罪預測;然而其演算法也是不透明的,很多人認為這種做法有疑慮:少數族群因為經濟或教育弱勢,使其犯罪率偏高,AI 演算法若以此模型進行預測,不但倒果為因,更會加重族群不平等與歧視。

    https://www.bbc.com/news/technology-49717378

誰來監督演算法的運用?

所有的科技和工具都是雙面刃,用在好的地方,就能對人類帶來益處;用得不對,就會有人受害。

這個社會已經不可能不用電腦,人類對電腦和演算法的依賴程度,也只會愈來愈大;在不可能拋棄演算法的情形下,我們應該如何妥善管理演算法,讓它用在對的地方?大概不脫以下幾個層次:

  • 法律與管理:與社會大眾權益相關的演算法,資訊如何公開透明?如何透過法規和監管,來確保演算法等工具的公平、合理運用?
  • 監督與自律:可以透過什麼機制,確保擁有相關科技的公司自律或接受監管,以合理使用其演算法,避免造成濫用?
  • 大眾知的權利:演算法的內容儘管是商業機密,但它如何運用、用在哪些地方、可能造成的影響,卻應該公開透明,為大眾所知。

這些問題顯然不是一時半刻可以解決,但先決條件是,做為被演算法決定命運的我們一般人,不能不知道演算法對我們造成的影響。

要是對「舉頭三尺有演算法」這件事渾然不覺的話,那我們就只能是演算法的奴隷了。

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…
加载中…

发布评论