劉維人、黃豆泥/當AI成為人的「雙生火焰」:機器伴侶永遠監視著你 | 沃草烙哲學 | 鳴人堂
親愛的網友:
為確保您享有最佳的瀏覽體驗,建議您提升您的 IE 瀏覽器至最新版本,感謝您的配合。

劉維人、黃豆泥/當AI成為人的「雙生火焰」:機器伴侶永遠監視著你

▍上篇:

AI成為人的「雙生火焰」:競爭帶來威脅,融合帶來力量

我們在上一篇中提到,目前為止的AI應用方向,都以模仿人類能力為主,因而加強了人類與機器的競爭,帶來更大威脅;但擅長模式識別的LLM大型語言模型,真正的潛力很可能是啟動人機協作,強化人類使用者的力量。這種方式可以解放更多人的潛能,甚至使世界比現在更加自由、更加平等。

但人機協作的過程,必然會在機器上存有大量的使用習慣、偏好、語意庫、記憶庫、甚至身體屬性。每個完全對齊(Aligned)使用者的模型,都與該使用者有著一對一的關係,是該使用者的雙生火焰。外部只要能夠存取或操作到雙生火焰,就能偽造使用者的所有資訊,危險度遠高於現在的資料外洩。

因此,只要不改變資料的擁有權與存取權,未來的個人只能在雙生火焰外洩的監控夢魘,以及被機器取代的無能夢魘之間二選一。

你要用我發明的咒語來對付我?嗯......賈維斯做得到1

早在類比時代,人們就知道要守護那些屬於你的資訊。除了身體與居住地這些基本資料以外,也包括人際來往、旅行紀錄、甚至某些會議發言。這些資訊曝光會讓我們本能地感到不安,同時也會被有心人士拿來利用要脅。到了電腦與網路時代,硬碟的文件、瀏覽器的紀錄等等,也都是這類需要保密的目標。ChatGPT剛出現時,資安專家與各公私單位之所以提醒不要拿來處理工作用的文件,也是因為這會洩漏重要秘密資訊。

但上述的雙生火焰介面顯然反其道而行。它跟著我們一起工作生活,陪著我們成長,放大我們的能力,了解我們會什麼時候喜怒哀樂。這樣的介面如果被別人存取了該怎麼辦?比如說最近蘋果公司發表的空間運算機器Vision Pro,利用機器學習原理,將使用者製作成數位立體肖像,這樣即使戴著機器,與他人視訊時,也可以派出該近乎擬真的數位化身,實時展現表情與手勢。但蘋果尚未交代該敏感的個人資料儲存於何處。

回到數位雙生模型,這種個資外洩能夠造成的傷害,不僅遠超過目前的身分證字號、瀏覽歷程外洩;甚至很可能比私密影像、銀行密碼外洩更恐怖。雙生火焰是由使用者個別調教的,就像是你人生的翻模,而且不僅紀錄了你的行為與知識,還擬合了你的偏好與視角。它除了知道你做了什麼,還知道你會怎麼做、會在什麼情況下產生怎樣的感受。這些資訊不但能夠拿來要脅你,也能拿來仿冒你的存在2

所以這些資訊必須有最高層級的資安,資訊的所有權也必須完全屬於使用者。但這會面臨很多問題,例如使用者被社交工程(social engineering)怎麼辦?該用什麼體制跟法規防止外洩?使用者能夠正確地判斷個資是否外洩嗎?又該如何防止使用者因害怕資料外洩而過度緊張?犯罪集團利用資料私有的特性來買人頭怎麼辦?類似的危機各位如果繼續思考應該可以想到更多。

更尷尬的是,這類資安問題可能已經正在醞釀了,無論人機協作介面開發到什麼程度都會發生。光是前述的ChatGPT,就已經因為方便好用讓許多人有意無意地使用它來工作,而且在資料集中儲存的狀態下,要及時檢驗顯然更為困難。

也許我們可以在興利與防弊之間兩害相權選擇保守,但這真的比較安全嗎?而且目前這種集中式、以取代人類為主的機器學習發展路徑,未來若像社群媒體那樣挾持巨大的平台優勢開始蒐集使用者偏好,我們該怎麼辦?

本機運算?會比較好嗎?

這時候一定會有人說,只要把這類機器學習的運算跟儲存,都限定在個人或公司的電腦中就可以了。

我們對此不太樂觀。雖然未來的算力發展確實有可能讓小型電腦執行機器學習,但個人或公司的資安能力卻讓人擔心。而且私有電腦更害怕資料遺失,很難抵禦公開或線上儲存版本的競爭。此外,把儲存地點或資料所有權放給個別公司,真的比放在公共空間更安全嗎?比較可能用資料進行濫權的人,到底能是公司的同事或高層,還是不認識的人?

最後,小型電腦到底要如何守護這些資料?完全不上網嗎?這樣的話,機器學習所獲得的資訊,會比網路上慢好幾步。手動更新外界資訊的流程也會成為資安的破口。

因應歐盟的人工智慧法案與資料法案即將通過,開始有許多組織與機構提倡建立資料合作社(Data Coop)或數據公司(Data Company),期望藉由中介或第三方代理人,幫忙維護個人資料隱私的權利,與資料潛在的獲利價值。

我們可以從集體智慧專案(Collective Intelligence Project, CIP)於2022年12月發表的《藉由資料合作社,共同擁有未來》(Co-owning the Future with Data Cooperatives)或激進改變基金會(RadicalxChange)於今年5月發表的《資料聯盟與委託代理人》(Data Coalitions and Escrow Agent),開始理解個人資料應用與人工訓練之間的關係,勢必會出現中介機構,在隱私與方便之間取得平衡。

《資料聯盟與委託代理人》一文中,作者將資料比做流水,水能發電,是因為水壩與發電機,資料能夠煉金,是因為演算法與衍生應用。但水壩在建立時,也必須考量環境衝擊,而通盤考量其外部性,往往沒有商業價值但具有永續重要性的考量容易被忽略,資料方面也是如此。

以語言模型為例,若我們推估未來個人化的AI應用方式,很可能是一個單一大型語言模(LLM),無論開源與否,都可以在個人電腦使用。而每個人都可以擁有自己客製化的套件加裝上去,如LoRA模型。LLM匯集全天下文本資訊,創造單一心靈,而LoRA模型以客為尊,服務單一對象,當你產生越多資料,我們便可以透過客製化的LoRA使LLM變得更像你自己,走向數位雙生。

在這樣的前提下,個人化LoRA模型如何被本地電腦保護便是重要課題。其一當然是將電腦晶片本身進行加密,將訓練結果與文本輸出防止外流;另一種方式便是更先進的零知識證明機器學習(Zero-Knowledge Machine Learning, ZKML),零知識證明可以有效驗證計算是否正確執行,而無需讓驗證者知道輸入的確切資料,在機器學習領域,我們可以打造具有隱私保護的個人資料訓練流程,而不至於讓資料外流,同時讓模型得以使用。

以上都是正在發展中的技術,我們在此呼籲,越個人化的技術,尤其是人工智慧,將越容易碰觸個人資料與隱私問題,無論是在個人使用層次還是更大的大型模型開發層次。身為未來「必然」的雙生火焰持有者,我們應隨時保持「給你方便不能當隨便」的意識,個人資料應好好持有並有效保護,在人工智慧發展同時,透入等量的關注隱私強化技術。

如今的AI演進速度,已經遠超過短短幾年前的水準。而就在我們撰寫這篇文章的當下,各界也正在利用LLM強大的擬合能力,來嘗試提高各行各業的生產力;也有許多研究者和企業,正在嘗試用人機合作來擴展人類本身的能力,同時防止人類與機器競爭。

回顧過去大眾媒體與社群網絡的發展歷史,可以知道無論是用LLM來擬合市場行為或人類使用者;還是研發人機合作,都很有可能讓每個人的偏好、記憶、思考方式、說話特性、審美觀、以及各種行動足跡,都存留一份副本在數位世界中;而真正能幫助到使用者的人機合作,更有可能使機器成為我們的互補,我們的數位雙生火焰。

雙生火焰一旦外洩或被侵入,將對使用者造成巨大威脅,並使社會陷入嚴重混亂,而且這樣的漏洞一旦出現便難以防堵。如果我們要防止不久之後的將來陷入這類困局,現在就必須開始預防,無論是資料自主、個人化模型、零知識證明、或者其他相關戰略。


  • 文:劉維人,自由譯者,主要翻譯當代民主問題、政經制度類書籍,並撰寫相關主題文章,如《反民主》、《暴政》、《修辭的陷阱》、《北歐不是神話》等。黃豆泥,離職醫師,FAB DAO與g0v/da0貢獻者,現於多元宇宙科服務,為Web3公共性研究者與實踐者,嚮往多元宇宙(Plurarity)精神,正在尋找有別於電馭極權與財閥亂鬥的第三條路。
  • 更多:WebFB

  • 賈維斯(J.A.R.V.I.S.)是鋼鐵人故事中的強人工智慧,根據東尼的同名管家命名。原本的主要工作也是協助使用者操作設備。
  • 這種事情早在社群網絡時代就已經存在。各位可能還記得「劍橋分析」公司在第三世界操弄選舉與民族仇恨的方法:結合真實與虛構的影像,製造出令人髮指的影片,然後利用臉書的精準投放系統,投給特別容易有情緒反應的群眾。當時連Deepfake都沒有,都可以釀出嚴重仇恨甚至血腥衝突了,未來當每個人的資料都在網路上存有至少一個備份,能夠造假或混合的能力必然倍增。

留言區
TOP