我變成那張被意淫的臉(上):為何Deepfake色情片讓人不適?
今年5月,台灣媒體刊登調查報導,探討一種新型的數位影像性暴力:俗稱為Deepfake的「深偽色情影像」。報導訪問多位受害的女性名人,包括政治人物及知名YouTuber,她們的臉被移花接木到現有的色情影片上,讓她們成為了影片主角——儘管真正出演的人並不是她們,但進步的AI技術讓她們的臉與影像中的身體完美無縫結合,栩栩如生。
這些女性看著自己「主演」的色情影片在網路上流傳,卻不知道是誰製作了這些影片、有多少人看過這些影片,更無法讓這些影像消失。唯一的線索是,有個名為「台灣網紅挖面」的推特帳號專門提供試看影片,並經營秘密聊天群組。使用者繳交報名費後可加入群組,取得各種完整的「換臉」色情影片,更可以透過競標、付費「客製化」服務等方式,主動「點購」自己想要看到的影片主角。除了名人以外,也不少人點購「素人」(即一般女性)為主角,可能是自己的前女友、同事,或心儀的女性。
直到日前,台灣警方破獲「台灣網紅挖面」帳號與聊天群組背後的經營者是同為知名網紅的小玉,並估計小玉透過為超過六百個群組會員提供換臉色情影片服務,獲利超過千萬元。事件爆發後,Deepfake頓時成為媒體與社群網路上最火熱的關鍵字,連總統蔡英文都在臉書上貼出相關發文,人人都在問:Deepfake是什麼?換臉色情片造成了什麼問題?這究竟是一種個人情慾的表現與實踐,還是對女性的性暴力(甚至性犯罪)?而我們的社會又應該如何回應?是否需要立法管制,以免更多女性受害?
Deepfake的崛起
2017年,記者柯爾(Samantha Cole)在熱提論壇上(Reddit)發現一位名為deepfakes的使用者,他利用開源的AI技術將知名女明星的臉移植到色情影片中,開啟討論串提供其他使用者觀看由出演影集《權力遊戲》(Game of Thrones)的女演員梅西.威廉斯(Maisie Williams)和女歌手泰勒絲(Taylor Swift)1主演的色情影像。該討論串於八週後遭到關閉,但在此之前已收穫了九萬名訂閱者。
Deepfake,中文譯作「深假」或「深偽」,是一種透過人工智慧(AI)中的深度學習( deep learning)創造出偽造訊息的技術。這項技術可用於影像及聲音,只要擁有個人的影音素材,就可以利用這些素材製造出難以辨別真偽的假影片。
在過去,這樣的技術仰賴專業的軟硬體與操作能力,然而隨著科技進步,Deepfake技術逐漸普及與簡化,如今一般人就可以利用個人電腦甚至智慧型手機製作出偽造影像,這些影像又受惠於社群網站,得以被大幅廣泛地匿名分享。
近年來,這項技術以假亂真的能力引發許多討論,因為它不只被用於娛樂與休閒目的(例如各種換臉App),更於政治場域上獲得開發。各種深偽影片被用來傳遞虛假訊息、影響公共討論,甚至左右選舉,讓許多人擔心Deepfake技術可能大大地傷害了我們的民主社會。
但除此之外,Deepfake技術最大的用途和產出其實是各種非合意的色情影片(non-consensual pornography)。位於荷蘭阿姆斯特丹的網路安全研究公司Sensity AI(原名Deeptrace)長期追蹤網路上的Deepfake色情影像,它們於2019發布的調查報告中指出,網路上96%的Deepfake影片為非合意色情片,且超過90%的受害者為女性,而觀看與消費者則主要為男性。此外,Sensity也發現,網路上流傳的Deepfake色情片數量自2018年起急速增加,每六個月就會加倍;截至2020年12月,他們共發現了超過8萬5千支影片。按照此一趨勢,網路上目前可能有高達17萬支的深偽色情片。
此外,女權倡議工作者也指出,COVID-19強化了這樣的趨勢。因為疫情而關在家裡的人們,一方面有了時間和機會增進自己的「數位能力」、「鑽研」Deepfake技術,另一方面也因為缺少其他活動而將注意力轉向色情影片,促使網路上的深偽色情片數量增加。
數位科技創造新型影像性暴力
許多學者與實務工作者將非合意(nonconsensual)的Deepfake色情片視為一種數位性暴力(cyber sexual violence)。隨著科技發展、人們的生活幾乎再也離不開網路以後,各種現實生活中的問題也逐漸以各自獨特的形式轉移到數位空間中,其中自然包括性別暴力。網路和通訊技術使得性別暴力變得更為多元,為研究者、實務工作者與立法者都帶來挑戰,更對受害者——其中大多數為女性——在數位空間裡的安全和權益造成影響與損害。
聯合國婦女署(UN Women)將數位性別暴力分成包括盜用(hacking)、冒充(impersonation)、監視/跟蹤(surveillance/tracking)、騷擾/威脅(harassment/spamming)、誘拐(recruitment)與惡意散佈(malicious distribution)等在內的六類。此外,某些學者則進一步區分出各種以「影像」為基礎的性暴力。所謂「影像性暴力」(image-based sexual abuse)指的是在非合意情況下取用、製作分享他人私密影像,及/或未經他人同意分享這些影像,其中也包含各種次類別2,而Deepfake色情片和俗稱為「復仇式色情」的「未經同意散布私密影像」(non-consensual pornography, NCP)皆屬於此。其他類型的影像性暴力則包括了盜取影像、性勒索、偷拍等。
值得一提的是,有學者指出,現有的許多分類方式皆以行為人的作為或動機為基準,缺少了從受害者視角出發的觀點。因此,逐漸有更以受害者為中心的討論方式被提出,其中包括以「非合意」作為主要分類基準,根據「違背他人意願」一事發生在暴力行為的哪個階段中,來區分不同的性暴力類型。
例如有些影像是合意地被製作或取得,但在不合意的情況下被分享、傳播,如所謂的NCP就是如此;有些影像則涉及非合意甚至是脅迫下的取得或製作,像是偷拍照、入侵電腦、強暴錄影。但上述這些影像的內容皆為「真實」——也就是做出性行為的確實是受害當事人本人。而Deepfake則更進一步,涉及了非合意的「性化」(sexualization)與對原始影像進行目的挪用(re-purposed image),亦即非合意地取用他人的影像,並加入「性」的元素,製作出造假、合成的產物。
從上述的討論可以發現,Deepfake色情片所涉及的最大問題之一,便是(不)「合意」:不合意地取用、處理、變動、性化、分享、傳播他人之影像。
這就得以解釋,為什麼Deepfake會對受害當事人造成各種不適或傷害。因為在不知情與違反他人意願的情況下,盜取、變造影像是對他人隱私與生活的入侵,並且強迫性地為他人建立某種特定形象(從事某種性行為的個人或色情片女星)。對於自己成為色情片女主角感到不悅與受傷,並不代表當事女性「看不起」或「歧視」色情片女演員或性工作者,而是因為個人的自我在這個過程中受到不合意願的塑造與扭曲。
數位互動影響自我認同
某些人或許會主張,這些影像只發生於網路空間,因此不屬於「真實生活」,藉此說服當事人「放下」、不要在意。然而這樣的說法徹底忽視了,在我們每日生活高度仰賴數位科技,且許多互動乃發生在數位空間——甚至可能只發生在數位空間裡——的當代,我們的數位自我(digital self)早就不是一個額外、獨立的存在,彷彿可隨時穿脫的服裝,而是現實自我的延伸;線上與線下的存在共同組成了個人的形象與真實,建構出一個完整的「我」。因此,我們在網路上的存在,絕對不是如某些人所聲稱的,下線即可被拋棄與忘記,它會在我們關掉電腦後,繼續影響、塑造我們。
此外,個人的自我身分與形象認知,並非發生於真空,而是經常在他人的觀看凝視下,以及與他人的互動過程中形成,這其中也包括陌生人。白話地說,當我們每日在網路上留下足跡,被他人觀看、與他人對話,這些歷程會打造我們的自我身分認同與形象認知,讓我們理解、詮釋、建立,甚至反思、改變「我是誰」是這件事情。
更進一步地,有學者指出,他人的凝視是創造出「羞恥」(shame)感受的一個關鍵。意識到自己成為他人眼中的對象,尤其是當他人眼中的形象和自己所意識到的自我不同,或是當他人眼中的形象屬於自己不那麼滿意、喜歡甚至可以視為「失敗」的自我時,就有可能讓一個人感受到羞恥。與此同時,羞恥感具有「生產力」,可以破壞、消解我們舊日的自我認識,並打造新的主體,創造新的自我認知3。
總結來說,網路上的互動與曝光屬於自我認同的一部分,而當這些互動與曝光造成羞恥感受時,又會再進一步影響自我認同的塑造過程,促使我們負面地看待自己。
因此,在Deepfake的情境中,當個人影像被他人觀賞,就構成了某種形式的數位互動,這些數位足跡是構成個人自我的元素之一,而考量到當個人的私密影像被觀看時,這樣的經驗很容易令人感到不適或羞恥,這種羞恥感受就會對當事人的自我認同造成傷害,可能破壞個人過去的自我理解,使當事人必須重新建立、組織自我。
此外,Deepfake還具有幾個特性,加深了它對當事人帶來的影響。其中之一是持續性。這些影像一旦進入數位空間,就會永久留存,永遠也無法被徹底清除,因此當事人等同於面對著一個歷久不衰的威脅。「可分享性」則是另一個關鍵因素,網路影像可以輕易地被分享傳播,當事人無法得知誰可能成為觀眾,等同於自我被暴露在所有潛在的凝視者之前。結合這兩個特性,Deepfake影像對當事人所帶來的挑戰是,羞恥感的威脅始終存在,而自我也處於一個隨時有可能被挑戰的狀態,必須一而再再而三被重整與修復。
▍中篇:
我變成那張被意淫的臉(中):Deepfake的問題不在情慾,是權力不對等
- 其他知名的受害者還包括哈利波特主角艾瑪.華森(Emma Watson)與神力女超人蓋兒.加朵(Gal Gadot)。
- 不同學者有著不同的分類方式,例如鮑威爾等學者(Powell et al., 2019)將影像性暴力分成關係報復、性勒索、窺視、性剝削和性侵害等五類。而由英國政府委託多位學者所撰寫的報告《成人線上仇恨、騷擾與暴力》(Adult Online Hate, Harassment and Abuse)則列出了六種暴力類型:盜取或偷竊影像(hacked or stolen images )、偷拍(upskirting)、合成性影像(sexualized photoshopping)、性勒索(sexual extortion/sextortion)、性侵與強暴紀錄(recording of sexual assault and rape)、家庭暴力(domestic abuse),其中Deepfake便屬於「合成性影像」。
- Elspeth Probyn, Vivienne Bozalek, Tamara Shefer and Ronelle Carolissen, 2019. “Productive faces of shame: An interview with Elspeth Probyn,” Feminism & Psychology, volume 29, number 2, pp. 322–334, https://doi.org/10.1177/0959353518811366
留言