生成式AI的善與惡(三):建制AI規範的可行方向
▍上篇:
生成式AI的善與惡(二):從ChatGPT談人工智慧的未來隱憂
因存在法律及倫理上的極大爭議,除極權或威權國家外,義大利首先發難,成為第一個在全國範圍禁用ChatGPT的國家。然而,越來越多區域及國家正努力設法將AI的道德原則融入AI應用程式的開發與部署,也有越來越多關注AI的倫理學家或法律專家開始設計務使AI為善、避免為惡的規範標準,並思考提出新的AI法律作為解決方案。
聯合國教科文組織的AI倫理建議書
聯合國教科文組織(UNESCO)於2021年11月23日發布「AI倫理建議書」(Recommendation on the Ethics of Artificial Intelligence),是首部由193個聯合國成員國家共同通過採納有關AI倫理的全球性協議。這部建議書明確指出AI的危險存在於「越來越多的性別及種族偏見,對隱私、尊嚴和機構組織帶來重大威脅,大規模監視造成的危險,以及執法中使用越來越多不可靠的AI技術。然而截至目前,未見制定一套通用的標準來解決這些問題」。
UNESCO主席Audrey Azoulay更開宗明義指出:
「世界需要AI規則來造福人類,AI倫理建議書正是一部重要的解決方案,它制定出全球第一個規範框架,同時賦予各國於各層面應用該框架之責任。UNESCO將支持其193個會員國實施此建議書,並要求各國定期報告其進展與實踐之情形。」
「AI倫理建議書」清楚點出此部AI道德規範制定的目的緣由,在於——「因AI所呈現出新的使用方式,影響了人類的思維、互動和決策,也影響著教育、人類、社會、自然科學、文化、通訊及資訊的傳播,從而體認到AI對於社會、環境、生態系統和人類生活(包括人類思維)所構成深切且動態的積極及消極之影響」。
此外,「考慮到AI技術可以為人類提供極佳的服務,所有國家都可從中受益,但也引起在基本道德層面的關注,例如關於它可能嵌入並加劇偏見,可能導致歧視、不平等、數據資料鴻溝、排斥,以及對文化、社會和生物多樣性及社會或經濟鴻溝等威脅;演算法運作的透明度和可理解性,以及訓練它們的數據資料的要求;及其對(包括但不限於)人類尊嚴、人權和基本自由、性別平等、民主、社會、經濟、政治和文化進程、科學和工程實踐、動物福利以及環境和生態系統的潛在影響,均需關注」。
歐盟擬議中的人工智慧法案(Artificial Intelligence Act, AI Act),已有意識地針對不同的數位環境,制定不同的監管方法,目前整個歐洲議會正急切致力於對生成式AI確立出立法規範方向。固然歐盟的AI Act內容目前尚未最終拍板確定,但可預期將成為歐盟對抗AI風險十分重要的法律基礎架構。
「AI倫理建議書」提出的十項關鍵原則
1. 相稱與避免造成傷害
是否選擇使用AI系統以及使用哪一種AI方法,均應透過以下方式驗證其合理性:
(a)所選擇的AI方法應具適當性且合比例性以實現擬定的合法目標。
(b)所選擇的AI方法不應侵犯AI倫理建議書所體現的基本價值,尤其不得侵犯或濫用人權。
(c)所選擇的AI方法應適合於各該具體情形,並建立於嚴格的科學基礎上。在決策是具有不可逆轉或難以逆轉的影響,或攸關生命決定的情形下,最終結果應由人類作成。另外,AI系統尤不應使用於社會評分制度或為大規模監控目的而運作。
2. 安全與保障
應在AI系統的整個生命週期中,預防、解決並消弭它對人類可能造成的不必要傷害,並解決系統中易受攻擊的安全漏洞(以上均屬安全風險),以確保人類、環境和生態系統的安全與保障。並透過開發有持續性的、具備隱私保護的數據資料存取框架,讓這些框架可用於促進高品質數據資料能更有效地訓練及驗證 AI 模型,以實現更為安全可靠的AI。
3. 公平與非歧視
AI的參與者應促進社會正義,維護公平並遵循國際法所要求的任何形式的非歧視規範,這意味著應採取具有包容性的方法,確保所有人都能獲得AI技術所帶來的益處,同時也應考慮到由不同的年齡、文化體系、語言、殘疾人士、女孩及婦女,以及弱勢的、被邊緣化的及脆弱群體或處於脆弱處境之人所體現出的各種不同具體需求;並應盡一切合理的努力,避免AI系統強化或延續具有歧視性或偏見的應用程式及運行結果,以確保此類系統的公平性;此外,針對具有歧視性或偏見的演算法決定,應賦予人民有效的救濟措施。
4. 永續性
一個永續社會的發展,有賴於在人類、社會、文化、經濟和環境層面上,持續一致地實現給定的複雜目標。因此,於針對AI技術對人類、社會、文化、經濟和環境的影響進行持續評估時,對其可能對永續性造成的影響,應有充分認知,並應設計出一系列持續發展的目標並加以實施。
5. 隱私權與數據資料保護
AI系統數據資料的收集、使用、共享、存取和刪除方式,必須符合國際法規範並符合AI倫理建議書中制定的原則,同時也應尊重相關國家、區域及國際法框架。演算法系統必須進行充分的隱私影響評估,其中包括社會及倫理方面的考量,要設計創新的方式使用並保護隱私資訊。此外,必須確保AI的參與者對AI系統的設計與實施負起責任,以保障個人資訊在AI系統整個生命週期運作受到保護。
6. 人為監督與決定
人類可以於決策及行動中求助AI系統,但AI系統永遠無法取代人類最終應擔負的責任及問責的落實。基本定則為:攸關生命的決定,絕不由AI為之。因此[聯合國]各成員國應確保AI系統在生命週期任何階段內,均應承擔起相應的道德與法律責任;並應在AI系統相關的救濟案件中,讓自然人或現有的法律實體得為被究責的對象,使其負起應負的責任。此外,人為監督不僅指特定個人得為監督主體,依照個案所需,亦包含具有包容性(組成多元)內涵的公共監督。
7. 透明度與可解釋性
當決策結果是由AI演算法作出,且影響到人民的安全或人權時,人民有權受充分告知,並可要求相關AI的參與者或政府機關提供解釋。此外,個人應有權了解作出影響其權利與自由決定所憑的理由,並得以向負責審查糾正該決定的私營部門公司或政府機關指定的人員提交自己對於該決定的意見。
任何AI的參與者,在其產製的產品或提供的服務是由AI系統直接作成,或是在AI系統的幫助下,以適當、及時之方式提供時,AI的參與者應將這些事項通知讓使用者知悉。這將可以讓人們知道AI系統的每個階段是如何運作的,並了解適於AI系統的上下文脈絡及敏感性為何,對於提高AI的透明度有所助益。
透明度的要求也可能包含對於會影響特定預測或決策因素的深入分析,以及適當的保障措施(例如安全或公平措施)是否到位等內容。而在發生對人權恐有不利影響的嚴重威脅下,透明度要求也可能會達到需要揭露共享代碼或數據集之程度。透明度與可解釋性的要求,實則與適當的責任及問責制度落實,以建立起AI系統的可信度,有著密不可分的關係。
8. 責任與問責
基於AI系統所做出的決策或行動,應令在整個AI系統生命週期中所對應的AI參與者負起最終的道德責任與義務;且應制定適當的監督、影響評估、審計和盡職調查機制,包括吹哨人的保護,以確保能對AI系統及其整個生命週期的影響負起責任。
9. 認知與識讀
應透過政府機關、民間組織、學界、媒體、社區幹部以及私部門參與者,共同發起從事開放而普及的AI教育、公民參與、數據資料技能與AI道德訓練、媒體和資訊識讀及相關的訓練,以提高公眾對AI技術和數據價值的理解與認識。
10. 多方利益相關者與適應性治理協作
不同利益相關者在整個AI系統生命週期中的儘量參與,採取此種包容性(組成多元)作法,對於AI治理是有必要的;如此一來,既能讓所有人共享利益,也可為AI的社會永續發展做出貢獻。而且,應採用開放標準和互操作性原則來促進多方協作;應採取措施以考慮技術的轉變,應對新的利益相關者群體的出現,且允許受邊緣化的群體、社區和個人也得以有意義地參與;在相關情況下,也應給予原住民族群對其自我管理數據資料之尊重。
「AI倫理建議書」裡的一句話,足資為對AI倫理議論的總結——「AI技術可加劇世界上任何國家內部及國與國間現存的分歧與不平等,當體認到不同國家所存在的各種不同現況時,為維護正義、信任和公平,避免任何國家和任何個人從此一行列脫勾掉隊,無論是透過公平程序以獲取AI技術並享受其益處,抑或在免於受AI負面影響的保護上施加努力,都有所必要。」這也呼應了在AI逐漸普及甚至有失控之虞的現況下,預先做好倫理與法律挑戰的準備,實屬必要。
美國白宮的AI權利法案藍圖
美國白宮於2022年10月4日發布了一份名為「人工智慧權利法案藍圖」(Blueprint for an AI Bill of Rights)白皮書,旨在強化一直以來受到AI自動化系統干預侵害的公民權利及自由,盼能消弭偏見及歧視性的AI自動化系統運作,目的在於維護人類的尊嚴與權利,確保人類的福祉及安全。
以下簡要介紹人工智慧權利法案提出的五個基石,除了可作未來立法思考的方向,也能響應如何開發佈署一個「好的AI」1。
1. 安全有效的系統
強調人民有受保護、免受不安全或無效系統影響的自由;自動化系統的開發時,應先徵求不同的社區、利益相關者和領域專家的意見,以釐清系統可能產生的疑慮、風險及潛在影響。而一個好的AI,必須——當用戶使用AI系統時,好的AI會嘗試釐清所使用的AI是否為不安全或無效的,一旦檢測到此類資訊,好的AI應能夠警告用戶並採取包括阻止壞的AI在內的相應措施。
2. 免於演算法歧視之保護
強調人民有不受演算法歧視的自由,AI系統應在公平的前提下設計與使用。 當自動化系統基於種族、膚色、民族、性別(包含懷孕、分娩和相關醫療條件、性別認同、雙性身分和性取向)、宗教、年齡、國籍、殘疾人士、退役軍人身分、基因資訊或任何受法律保護之其他分類,導致不公正的差別待遇或影響不利於人民時,即屬於演算法歧視。
而一個好的AI可能體現於——當使用可能含有歧視性演算法的AI系統時,好的AI能夠確認對用戶的保護是否足夠,並能確認所使用的AI是否確實存在不當偏見;好的AI也會通知用戶,並根據AI法律或相關法規規定,自動向各該主管機關回報這些情形。
3. 數據隱私
人民有透過內建保護措施而免於受到濫用數據資料行為影響的權利,且對如何使用自己的數據資料有控制權。應透過設計選擇來保護人民隱私免受侵犯,並應確保此類保護措施為系統所預設,包括確保數據收集符合合理期待,並確保僅得蒐集在特定情況下屬於絕對必要的數據資料為限。於此,好的AI可體現於——會保護用戶免受數據隱私的侵犯,因此當另一個AI試圖向用戶請求提供非必要數據資料時,好的AI能夠讓用戶意識到此種逾越必要的行為;且好的AI還能夠在將用戶數據提供給其他的AI之後,仍能保障用戶的數據資料隱私權。
4. 通知及解釋
人民有權得知正運作於自己身上的自動化系統為何,並有了解它是如何以及為何對自己產生影響之權利。自動化系統的設計者、開發者和部署者均應提供普遍可存取的簡明語言或文字,包括對整個系統功能和自動化所扮演角色的清楚描述,讓人民得以了解;且應針對下列事項通知人民:(1)此類系統正在使用中;(2)負責該系統的個人或組織為何;及(3)明確、正確且可得有關該系統使用結果之解釋。
雖然,部分AI系統可能嚴重缺乏對用戶提供適當通知的管道,因而無法針對AI行為提出充分解釋;然而,一個好的AI可以嘗試解釋或詢問其他AI,並藉此識別出本應提供的通知及解釋,或即便依情形如通知或解釋為不可行,然而一個好的AI至少能夠提醒用戶關於其他AI的缺失及失誤,並能根據AI 法律或相關法規向指定機關回報這些情形。
5. 人工替代方案、考量及備案
人民可以在適當時機選擇退出AI系統,而且可以聯絡到有能力快速思考解決人民問題的人。並能在適當情形下,選擇退出自動化系統,轉而改採人工系統繼續執行任務。
假設用戶使用中的某個AI系統未能勝任被指定的任務,而用戶並未意識及此,或還不確定如何應對,於此情形,一個好的AI應會默默檢查另個AI正在對用戶做什麼,並向用戶指出該另個AI可能產生的重大疑慮,然後好的AI系統也會提醒用戶可以請求人工替代方案以取代另個AI,或者直接代表用戶變更為人工替代方案。
雖然上述白皮書受到若干批評,包括:它僅屬參考文件,不具政策拘束力;仍著重於AI發展優勢而意非禁止;概念上略屬寬泛,無實施細節;進一步轉化成實定法規範仍有困難;對於某些要求禁止AI等迫在眉睫的爭議問題未明確表態等等。但這份原則性文件,確實也提出了一些AI規制的關鍵原則與基本藍圖,並且首發倡議、作出號召,激發匯集了來自各界廣泛地審議與討論,有效促進關於道德及倫理的AI規制框架的探討與整合,而這些,都有助於日後AI法律及倫理規範的制定,也為我國在思考AI法制時提供了可行的方向。
制定AI規範確屬必要
AI的善與惡,好與壞,存乎人心;而人的一念之間,往往失之毫釐,差之千里。隨著更多AI大量的設計開發,公眾的普及使用,人類社會儼然進入了一個嶄新的AI時代,此一浪潮恐難以防堵;AI技術潛力無窮,前景無限可期。然而,單純一昧的防堵禁制,猶如以刀劍欲對抗坦克槍砲,一來未必能成功防堵,二來也無法有效解決現有問題。
水能載舟、亦能覆舟。相對於AI可能為世人帶來諸多惡的結果及其嚴重性堪虞,如僅思仰賴人心收斂謙讓或企業自我約束來防止避免可能的危害,猶如緣木求魚,勢難抵彼岸。因此,AI以及相關新技術,宜在有法制規範的安全護欄下,確保消費者安全,避免民主價值及公民自由權利受到戕害,並同時兼顧產業創新,才能妥適發展,有效造福人群。
因此,有效採用關鍵的AI倫理原則來發展部署AI,從而削弱避免AI可能帶來的種種壞處,同時促進能夠增進人類福祉好的AI的發展,制定AI相關的倫理及法律規範,可為一種有效的解方。
故而,未來無論是企業內部專責資訊或法制法遵部門的相關主管,或是政府機關內專責制定或執行規範的立法及行政部門,對於新科技的發展脈動均應有基本掌握,切忌墨守成規、與現實脫節,宜不斷強化監理技術,妥善思考運用科技制衡科技之可能,因應技術快速發展,適時建立妥善規範,強化AI的管理措施,同時兼顧人民自由權利的保護,並不忘激勵企業的創新發展,審時度勢,調和鼎鼐,權衡利益,以應各方之不同需求。
於此之時,具有與AI相關法律或倫理事務的專業知識者,將可為大量新興的AI法律及倫理規範需求適時作出貢獻。至於每一個AI應用程式的使用者,在面對AI可能帶來的潛在危害時,更應不斷充實新知,建立有關AI的正確認知,隨時自我覺察,謹慎作為,為保護自己的權利及利益而作出努力。
- 見 Lance Eliot, AI Guardian Angel Bots for Deep AI Trustworthiness: Practical Advances in Artificial Intelligence (AI) and Machine Learning, 2016