人工智慧 與 道德設計

 

李明憲

淡江大學物理系

 

(演講大綱)

 

引言

「起」

科幻故事引言 I

「機器人打架」事件

 

不太科幻故事引言 I

兵推結論「先下手為強」(否則會輸、所以動手嗎?)(不宣而戰,珍珠港的八卦)(原爆的八卦)

 

為什麼要探討道德(為什麼要學道德)

刺耳。吾人「修身養性」還不夠?

機器為人類所使用,不能人類危害人身安全。

高階(智慧)機器為人類服務,更必須與人類相容。(蠢奴才累死主人)

 

人類的期待

高度自動化

區辨各種複雜的狀況

明白主人的意思,不需費盡口舌下達低階指令

電腦程式語言進展固然如此

非人力應用(獸力)也相似(獵狗、牧犬、獵鷹、魚鳥)

 

 

人工智慧的現況

目前的功能(narrow AI)

生產裝配線上的機械手臂

股市進出作手(但歷史上,曾引起紐約股市大崩盤)

自動飛行與起降

圖形辨認(如臉部)(病理診斷)

語音辨識

旅遊翻譯

線上無人客服(語音或文字)

搶答金頭腦

西洋棋 (Deep Blue)、圍棋術大師 (AlphaGo)

自駕車

KUKA 打乒乓球

 

AI 的原理

統計與最佳化

(類)神經網路

深度學習

遊戲加速顯卡廠大撈(其實比特特幣己賺一波)

 

明顯尚未達到的(期待)功能

情緒分析(語意解讀)

藝術評分(大考作文電腦閱卷)

文藝創作(電腦唐詩)

自圓其說

數學證明

圖靈測試

 

立即面臨的挑戰

「承」

 

智慧工人,己經上路(不能不管,誰的責任)(養{子、狗}不教誰之過)

自駕車撞人誰負責?

 

自駕車允許變換車道嗎?

自駕車允許經常變換車道嗎?

個人經驗:保持距離的後果,被切入。(P.W. 安德森:More is different!)

 

傲慢的偏見與偏不見

非裔人種無法解鎖

人有兩條腿 (亦、几字型)

大數據與統計明示某人種犯罪律高,所以加強主動查緝,防範犯罪來?

用來學習的資料或演算法本身有偏差,怎辦?

 

 

抹黑栽贓 人臉假造

有圖不一定有真像了

 

智慧代理,火上加油

Youtube 「建議觀看」

 

戰爭機器、手下留情?

誰來按鈕?

 

沒常識也該看過電視

為什麼分不出貓跟布偶?(毛的細節?出現的場合?)

是大數據不夠全?

 

電腦法官,青天再世?

機器「聖」人、夠公正無「私」吧?

寫判決書的能力,是司法正義的期待(寫在裏頭的對與錯,就是道德的參考)

道德沒有溝通,能服人嗎?

(話說回來,這是人的問題,還是機器決算法的問題?還是數據的問題?)
(那 timing 呢?)(那泥?動態大數據?沒完沒了了?)

 

AI 無法解釋它為何做那個決定

人類會問:「為什麼你認為那是貓?」

 

教授怎麼教化學?

講完通則,然後一堆特例。

 

 

當務之急,回歸人本

「轉」

道德模型(簡化了的架構,有可辨認的模式,可縮小人機行為差異)


王永慶為什麼要回收舊擦手紙?

(有一種東西叫習慣)就是「行為準則」程式

 

你希望你的自駕車多聰明?

自駕程式(救主、救己、還是救人?)

(本車迴避危險時,對他車或行人怎樣的考量? 剎車被追撞還閃避撞人可以)

(那種賣得好?)

派我的自駕車上街去抗議遊行,允許嗎?

 

科幻:阿西莫夫「機器人三法律」與 石森章太郎「良心迴路」

機器人三定律如下:

  1. 第一法則:機器人不得傷害人類,或坐視人類受到傷害;
  2. 第二法則:除非違背第一法則,機器人必須服從人類的命令;
  3. 第三法則:在不違背第一及第二法則下,機器人必須保護自己。

十誡

 

約法三章

 

AI 的 罪與罰

AI 怕什麼?

如何替機器植入情緒?

 

什麼樣的倫理準則與規範是合宜的?

等待共識

程式或資料庫或機器學習得到的,都一樣具有道德上的影響力。

回到「機器人打架事件」,人類唯有更加積極地進行道德的推理與辯論,才能解決當今已經是日益嚴重的「演算法規範問題」。

 

 

人類智能的本質(難)

智能指標

鏡子測試(知道他我之別)
複雜情緒(幽默、忌妒)(會八卦的海豚)
設身、處地
欺騙
使用工具,設計流程,解決問題
推導數學定理証明

 

哲學上關於心靈的三大問題

意識、自由意志、價值觀

 

知道「自己」在做什麼

 

如何將情緒植入機器
先問情緒是什麼

如何將道德植入機器
先問道德是什麼

如何將智慧植入機器
先問智慧是什麼

如何將意識賦予機器
先問意識是什麼

 

人類道德的本質(相對較易)

認知科學

人類/動物行為

人性本「善」?

道德分子 (moral molecules)

同理心是本能的一部份嗎?(無視私之幕,法律女神用布矇住眼睛)

情緒

「怕」是怎麼來的?(演化論)

社會性 與及社會是多數人的基本需求

剝奪社群生活(牢獄)反而是一種懲罰

讀聖賢書、所為何事?

人類行為大數據 (而且有歷史縱深)

情緒勒索 與 道德束縛可以影響他人(可見道德論爭之重要)

道德聲量鈕,要調多大,人才會自由或快樂(人類的良心迴路)

 

"Moral Machine Experiment" (Virtual Democracy)

 

 

 

科幻(未來學)一下又何妨

「合」

我不是你,怎知你有沒有{靈魂與道德}

道德圖靈測試 / 意識的圖靈測試

實證 與 推理 一樣重要

從道德推理到道德程式,到社群模擬

某個模型是否規定得宜,由於太複雜難以推理,因此採用模擬。

以戴口罩與打預防針作社區防疫,一定比例好人讓社會就平靜,但比例多少?

 

AI 覺醒後,會發生宗教信仰嗎?

無神的神學(免責聲明)

Artificial Intelligence and… Theology?

 

AI 的下一個挑戰:行為模仿

(笑談) AI 有了行為模仿能力,可以被派去學動物語言

「道德模型」規範「行為」,所以能進行行為模仿的 AI 有能力「學習」

低層次:行為由情緒驅動(情緒辨認)

高層次:行為要實現動機(動機辨認)

 

永遠不做危害人類整體的 AI,這個程式要怎麼寫?(Asimov 後來加的機器人第四法條)

如果做到了,道德程式設計師將會是未來的熱門職業

要限制 AI 多聰明,是人類社會可以共同達成協議的嗎?

(連空污、限核都沒共識了)(看,還是人的問題) (當機械比人好用,就會用機械)(工業革命與社會革命)

 

 

結論 與 建議

聰明地提昇知識與能力,參與設計機器而不是被機器取代,理工農醫文史法商皆然

關心科技進展、關心倫理議題、勇敢改造社會/世界。演算法決定大家的未來。

 

 

 

 

延伸閱讀與思考

行為(扎波斯基,哈佛公開課)

正義(桑德爾,哈佛公開課)

The Moral Moleculers : How Trust Works ( Zak,

 

意識

 

打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?

Should Computer run the world ? Royal Institution Talk by Hannah Fry

TED:克莉蒂 沙馬 : 如何防止人工智慧學到人類偏見

TED:麥克斯 泰格馬克 : 如何讓人工智慧賦予我們力量而非受控於它?

 

報媒消息:

AI武器未來戰(上):「殺手機器人」的禁令謬誤? | 政經角力 | 轉角國際 udn Global

AI武器未來戰(下):「無人機」的新世界大戰? | 政經角力 | 轉角國際 udn Global

中國恐取代美國地位! AI國安會籲拜登:發展人工智慧軍武制衡 ltn

博客來-打開演算法黑箱:反噬的AI、走鐘的運算,當演算法出了錯,人類還能控制它嗎?

Artificial Intelligence and… Theology?

 

影片參考:

在 YouTube 上觀看「Should Computers Run the World? - with Hannah Fry」

「Robots, Emotions & Empathy | Angelica Lim | TEDxKL」

「This is why emotional artificial intelligence matters | Maja Pantic | TEDxCERN」

「10 differences between artificial intelligence and human intelligence」

「What Does It Mean to Be Intelligent? - with Howard Gardner」

Consciousness is Not a Computation (Roger Penrose) | AI Podcast Clips - YouTube

玖伊珀薇妮: 我如何對抗偏差的演算邏輯

瑪格莉特.米契爾: 如何建立人工智慧來協助,而不是傷害人類

How Will Self-Driving Cars Make Moral Decisions? - YouTube