親愛的網友:
為確保您享有最佳的瀏覽體驗,建議您提升您的 IE 瀏覽器至最新版本,感謝您的配合。

「機器人三大定律」過時了嗎?如何為AI立憲?

圖/路透社
圖/路透社

短短數年之間,AI大熱,討論的人也多了。一時之間,百家爭鳴,文組理組似乎都有話要說——這麼說當然是客氣了,說文組理組忙著相互貶低大概更符合實情。此刻我們難免想起科幻小說大家以撒・艾西莫夫的「機器人三大定律」。容我們先複習一下這位或許是史上著作被改編電影最多的科幻小說家所獨創的三大定律吧:

一、機器人不得傷害人類,或坐視人類受到傷害。
二、在不違反第一定律的前提下,機器人必須服從人類的命令。
三、在不違反第一與第二定律的前提下,機器人必須保護自己。

至為明顯的是,以「機器人三大定律」名之顯然是種簡化——準確地說,正確名稱該是「防範機器人三大定律」(笑)。是的,討論人類該如何防範機器人反客為主奴役人類,當然一點也不新鮮,我們早已在無數好萊塢電影中一再複習,簡直厭煩無比。然而我必須說,儘管審美疲勞,此事依舊不容忽視。未來已至,人命關天——暫且襲用筆者個人著作《噬夢人》所涉之相關概念——「為AI立憲」的時刻已翩然臨至。這已是「人類基本法」或「AI基本法」形諸文字的時機,艾西莫夫的三大定律或許堪用,然而我們需要更深刻的思索。而我必需說,其中關鍵,可能就在於「意識」一事。

如何「為AI立憲」?如何預判未來?鉅變時代裡,當我們意圖深化思索,標準的核心方法是:回望過去(我以為這幾乎是此時此刻深化思索的SOP了;我們必須承認,所謂「現在」,儘管既非大戰爭時代亦非大革命時代,但貨真價實,確實就是個前此數百年前所未見的「鉅變時代」,因為人類極可能即將面臨一關於人類自我定位的歷史轉捩點)。是以,於新著《人類大命運》(簡體版名「未來簡史」)中,暢銷書《人類大歷史》作者、以色列歷史學者哈拉瑞(Yuval Noah Harari)全面檢討了「意識」這件事。

等等。且慢。為什麼是「意識」?為什麼要討論意識?

對,沒錯,「就是」意識。因為「意識」與「智能」不同。因為,回望過去,人之異於禽獸者,可能就在於意識;是以,人之異於AI者,或許,也在於意識。AI或許可輕易擁有智能,但極可能缺乏意識。

等等,再等等。你可能難免疑惑:Siri不是早就能陪你打屁調情說冷笑話了嗎?微軟的AI小冰,不已經是個詩人了嗎?特斯拉的自動駕駛AI,車不開得好好的嗎?

依照哈拉瑞的論點,那不是「意識」——那依舊,僅僅堪稱「智能」。

關於此題,關於意識或智能,我們或許有個較為古老陳舊的認知:圖靈測試(Turing Test)。早在1950年代,英國數學家亞蘭・圖靈(Alan Turing)已提出人工智能的測試標準。如何斷言一機器擁有所謂「智能」?圖靈的原始論斷是:設想你向一「正常人A」發問,聆聽其回答;亦向一「機器B」發問,亦聆聽其回答。若經由若干回合問答來回後,你無法分辨A與B何者為機器、何者為人,則表示機器B通過圖靈測試,機器B具有智能。

有趣的是,時值此刻,擁有後見之明我們恰恰可自圖靈測試的判準中看出「判別智能」之難。我的意思是,圖靈測試所提出的,是一「操作型定義」——一實作情境下之判準。此為一外部判準,由外部實作情境決定,來自於進行圖靈測試的測試官本人之主觀感受,而非來自於AI機器內部。換言之,至少在那個年代,我們無從自機器之內部運算機制斷言該機器是否具有智能;即使我們明明白白完全掌握了該機器運作的程式碼亦然。這說來奇怪:你完全知道面前機器之內部運作程式,卻無法斷言這樣「算不算」具備智能?這什麼意思?我以為,圖靈可能已然明白,「智能」之定義原本便虛無縹緲,人言言殊,難以自內部掌握;是以與其於內部糾纏不清,不如跳脫出來,自外部實作中下手。

弔詭的是,這似乎恰恰預示了人類此刻的難題。人之異於禽獸者幾希,人之異於AI者幾希;但時至今日,圖靈測試早已被為數眾多的AI所攻破,必須接受此一事實。但儘管如此,人類一點也不甘心:是的,今日,一位極優秀的聊天機器人或許能輕易通過圖靈測試,但真能說它們(AI們)和我們一樣嗎?我必須說,其中一個重點其實是,在圖靈的時代,圖靈並未精確定義用詞。這點從他提出的原始問題「Can machine think?」即可明確得知。何謂「智能」?何謂「意識」?何謂「think」?原本就不容易說明清楚,即使到今天依舊造成相當程度的困擾。我以為,人類的不甘心(「我才不相信聊天機器人『跟我們一樣』!」)其實標誌了人對自己的迷惘。什麼叫「跟我們一樣」?「跟我們一樣」到底是什麼意思?

而將圖靈測試與機器人三大定律合看,某種「內部障礙」立刻被凸顯出來。何謂「內部障礙」?請注意,圖靈也好,艾西莫夫也好(恰好一個理科一個文科),二人顯然都無法以自機器內部精確定義人工智能,僅能自外部實作中另闢蹊徑;是以,圖靈測試以及機器人三大定律,走的都是「操作型」路線。所不同者,圖靈測試是本質性的(判別一「東西」——舉例,一程式,是否具有人工智能);而「防範機器人三大定律」則是工具性的,試圖為人類與AI的相處建立規範。

然而,為何都是「外部」?主要原因當然就是,人類對「跟我們一樣」這件事,原本便一無所知——「我們」是怎麼思考的,人類從來就在持續思索、持續研究中。人類對人類中樞神經的「內部」機制,從來就沒有弄懂過。

好了,所以我們似乎得到答案了。如何「為AI立憲」?如何因應一個AI即將取代許多人類執行低階工作的未來?在這樣的未來中,人類與AI如何相處?如何避免AI對人類產生危害?我的個人建議是,現階段的權宜作法,可能就是先避開本質問題,先尋求對工具性問題之解決;亦即,先避開「內部」,專注於「外部」。艾西莫夫的三大定律未必盡善盡美,但方向正確。幸好,幸好我們還沒進展到要被逼著立刻解決本質性問題(內部問題)的地步。(當然了,這也正是人類行為的危險性——在還沒有弄清楚之前,我們已經開始使用AI了。這有多危險?坦白說,我不知道。)但我們必須承認,那一刻終將到來——屆時,思考如何精準定義「意識」,將是我們無法迴避的問題。這點下回再談。

留言區
TOP