親愛的網友:
為確保您享有最佳的瀏覽體驗,建議您提升您的 IE 瀏覽器至最新版本,感謝您的配合。

臉書為何不直接封鎖川普狂言?

圖/路透社
圖/路透社

這個月台灣的臉書動態大事之一,就是一位陸生的發言被檢舉下架。面對不喜歡的言論,不是按隱藏,而是按檢舉,我不想看的大家都不要看,相信各位身邊都有這樣以天下興亡為己任的朋友。

如果今天臉書創辦人馬克‧祖伯格也覺得「我不想看的大家都不要看」,會變成什麼局面?

12月10日,針對川普放話全面封鎖穆斯林入境,祖伯格在他自己的動態牆上說

我要加入聲援我社群中以及全世界的穆斯林……如果你是這個社群中的穆斯林,身為臉書領導人,我要你知道你在這裡永遠受到歡迎,我們會為你們的權利戰鬥,為你創造和平安全的環境。

這麼麻煩幹嘛?如果祖伯格想捍衛穆斯林的權益,身為臉書創辦人,他大可以乾脆把川普的帳號封了,甚至修改演算法把轉貼川普狂言的貼文貼圖都封了,不就一了百了?這種將言論決定權交給一個人的想法,相當危險而且愚蠢。那麼交給臉書、或臉書的演算法會不會好一點?

▎實驗:社交訊息影響投票行為

已經有實驗顯示,臉書具有影響投票人行為的能力。2012年,《自然》(Nature)刊登一篇研究,研究團隊由聖地牙哥加大教授James Fowler領軍,與臉書數據團隊合作,2010年美國國會選舉日,針對美國6千萬用戶在臉書上張貼兩種不同貼文,1%用戶收到的是資訊貼文,一則置頂的「今天是選舉日」貼文,提供附近投票所定位,以及「我已投票」按鈕、已有多少臉書用戶投票的計數器;98%用戶收到的是社交訊息,即上述資訊貼文,再加上隨機顯示用戶哪些書友已經去投票的欄位;剩下1%什麼都看不到。

實驗投放的社交訊息,直接讓6萬本來不投票的人出門投票,間接讓28萬人在看到朋友投票後出門投票。「線上社交網絡讓訊息效果放大4倍。」Fowler說。

這項實驗的倫理問題在當時引起相當大的爭議,聚焦在臉書是否可以不經告知而進行可能操縱用戶的實驗。不過如果這項實驗是針對商業行為而不是選舉,爭議還會不會這麼受矚目?我是抱著懷疑的態度。成為社群行銷專家們熱烈宣傳應用的對象還比較可能。

▎競選廣告不是商業廣告

12月11日,衛報研究員Harry Davies報導,指出共和黨參選人克魯茲(Ted Cruz)付給劍橋大學運作的劍橋分析(Cambridge Analytica)75萬美元,在大部分用戶不知情的情況下蒐集臉書用戶的心理變項(psychographic,概念類似人口變項demographic),進行心理資料側寫,來精準修正訊息投放。澳洲的社群專家Andrew Hutchinson形容,這種側寫的精準程度,超過你的朋友、家人,甚至父母。我們可以把它視為在臉書演算法下達到最大宣傳效益的作法。

問題比較大的地方,是劍橋分析的資金,表面上來自幾個不同管道捐贈,Davies指出,實際上包括克魯茲支付的錢,都來自華爾街對沖基金巨頭Robert Mercer。他是共和黨的大金主,更是克魯茲背後最大金主,華盛頓郵報稱他為「茶黨保守派」(Tea Party conservative)。

Davies質疑,政黨可以這麼做嗎?這並不是一般商業行為,不像調查用戶喜歡的是可口可樂還是百事可樂;這觸及了我們的認同核心,我們在社會文化議題上與世界的互動。

所以不要再以為利用檢舉機制封鎖言論是種勝利,甚至把這種機制也視為言論自由的形式。不讓人說話從來就不是自由的形式。

也不要以為我們不會受臉書影響。不可否認我們都有為天下事擔憂的時刻,但我們在社群媒體上表達的擔憂應該更具自主性;很少有人願意承認自己的價值判斷是受別人操縱,但我們必需意識到,臉書、或有能力利用臉書建立用戶心理變項的人,確可能從演算機制、貼文形式、廣告投放,切入到我們的判斷核心。

留言區
TOP