哲學開箱文
哲學開箱文

「你一開始做哲學教育,接著研究哲學故事,最後差點成了哲學笑點。」 哲普作家 台大兒哲中心研究員 國體大兼任助理教授 粉專:哲學開箱文 合作邀約:yschou0910@gmail.com

課程記錄:臺中女中0401

這週的主題是人工智慧。人工智慧的迅速發展,已經人盡皆知。對此我們可以敵視,認為它越聰明,就越會奪走人們的大部分工作,甚至是奪走人際關係;也可以持樂觀論,認為它最終能夠深度學習,並帶來有益的社會變革。

以上論點,都立基於人工智慧有朝一日能完全模仿大腦,或說提供一切人類大腦能夠達到的功能。不過,東京大學的新井紀子教授認為,人工智慧原則上不可能超越人類大腦。主要原因是,以搜尋與演算法為基礎的人工智慧,需要龐大且品質高的資料庫,但資料的好壞優劣必須由人類提供、判斷與評價。

為了論證這一點,她開發了一款考試機器人:東大Robo,要測試它能否通過東京大學的入學考試。儘管她有意優化人工智慧的考試成績,但最終目的是要指出,如果人工智慧能在現有測驗中拿到高分,而學生還把時間心力花在已被人工智慧取代的技能上,那我們的教育絕對出了嚴重問題。也就是說,未來將是一個人類與人工智慧更加緊密合作的時代。在確認人工智慧的學習極限之後,人類應該跨過這個極限,發展超越人工智慧的技能,否則就只是等著被取代而已。

此乃《當AI機器人考上名校》一書的由來。市面上談人工智慧的書很多,但用它來反映教育與升學考試現況的,恐怕寥寥可數,所以我認為這書非常適合高中生閱讀。尤其是,人工智慧的發展必然會帶來社會變革,而這跟中學生的生涯規劃會有直接相關。

這次的閱讀文本是:

經常有人問我:「到了什麼時候,人類才能不需要製作教師資料或設定目的、目標與條件,而將一切交給AI處理?」
其實我認為人類未來會越來越輕鬆,但不太可能將一切交給AI處理。AI的發展必須有益於「人類社會」,但只有人類知道何謂「有益」。因此,人類必須設法告訴AI正確答案。
許多人誤以為「既然深度學習模仿人腦,未來一定能如人腦般判斷事物」。事實上並非如此。深度學習的原理不是「模仿人腦」 是「模仿大腦」製作數理模式。猴子、老鼠」 等動物都有大腦,但不一定能分辨腳踏車與摩托車、癌細胞與正常細胞。
近年,不知道是不是因為對現實的政治感到失望,甚至有社會學家表示:「說不定將政治交給AI處理還比較好。」然而要讓AI「好好處理政治」,得先以數字呈現「比較好的政治」。
儘管能量消耗等能以數字呈現,但「比較好的政治」無法以數字呈現。至少身為數學研究者的我可以如此斷言。現代數學無法以數字呈現人類的幸福。若忽略這項事實而交給AI處理,想必結果一定非常恐怖。(頁30)

文意相當明確,認為人工智慧在應用上有非常大的限制,甚至可能造成嚴重反效果,所以人類政治或幸福不能交給它來決定。有趣的是,那我們是怎麼決定何謂政治、何謂幸福?如果不交給人工智慧來決定,又應該交給誰來決定?如果人工智慧沒有決定能力,那它究竟能幫上什麼忙?

或許由於文本內容主要是反面論證,學生們寫的也都是反面理由。但我覺得,適時加上一些正面陳述,譬如人工智慧能夠做對什麼,應該會更好。以下是一些摘錄(經我修飾):

.超越/不能超越,AI最終能夠超越人類大腦嗎?不可能,只要它還得依靠人類來定義、處理與分析資料。

.AI,人腦,AI能否取代人腦?不行 ,AI只能處理已量化的資料,但有很多東西無法量化。

.AI政治/人類政治,AI決定政策會更好,真的嗎?不會,至少它無法解決資源匱乏與分配的問題。

.有益/無益,AI發展有益於人類社會,真的嗎?不一定,太過依賴AI的話,遇到災難的抵抗力會大幅下降。

另外是學生對於寫作的一些問題:

.寫作當中有哪些贅字不要用?

.如何有比較特殊的觀點或想法?

.一定要先找到衝突點,才能提出問題嗎?

.如何判斷問題問得是否精確?

.衝突點和問題,配合起來會很單調?

.對於正反意見都想支持時,該換題目嗎?

.對於問題,如果有未知因素導致難以確定立場,該怎麼辦?

另外有人問:為什麼沒有人想讓人類模仿AI?這很有趣,其實我覺得,應該已經有人在做類似的事,只是那些人不會自稱是在模仿AI。

臺中女中,霧,4.1.2021

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

加载中…

发布评论