天天看點

被僞色情傷害的南韓女性:3秒“換臉不雅照”,科技成性暴力幫兇

近幾周,南韓人震驚地發現,大量年輕女性和女孩兒,包括未成年幼女的不雅照片在社群媒體上曝光,而這些照片被用來做成性剝削圖檔或電影片段。難道“N号房”再現?不。其實,這次女性不雅照片傳播的始俑者是“深僞技術”與其操縱者。盡管如此,這次事件帶來的惡劣影響不亞于“N号房”醜聞。

被僞色情傷害的南韓女性:3秒“換臉不雅照”,科技成性暴力幫兇

1. “感謝各位,為我結束了這無法自拔的惡魔人生。”——這句話出自于N号房營運者趙主杉。

趙主杉于2020年被捕。移送檢方時,他說出這句令他感到解脫的話。他當場感謝結束其惡魔人生的群眾。

惡魔受到了懲戒,但留下罪惡的種子。當這個勒索團夥成員被盡數緝拿時,警察在社群媒體的黑暗角落裡,發現了别的東西,即一些經過粗略加工的色情圖檔,上面貼着别人的面孔。這些就是深度僞造色情内容的最早嘗試。當時的國會不知道如何處理它們,最後隻頒布一項措辭模糊的法令,禁止其制作、傳播。就這樣,一個利用人工智能犯罪的浪潮未被阻止,“潘多拉的魔盒”躲藏起來,等待肆虐人間的時機。

被僞色情傷害的南韓女性:3秒“換臉不雅照”,科技成性暴力幫兇

深度僞造(Deepfake)是什麼?簡單,利用AⅠ技術造出逼真的虛假内容,通常僞造人的臉、聲音。

深僞技術僞造的不雅照,就是硬把你的臉貼到别人臉上,而那人的身體照片是露點的。近年來,有些AⅠ研發者醉心于追求真實度,無意中“幫助”了某些别有用心的人。後者将先進的科技成果用來換人臉、脫衣服。 人工智能本可以輕松、快速且廉價地生産深度僞造的視聽材料,用于更有益的方面。不幸的是,深度僞造技術最常見的應用卻是色情内容。

同此前的“N号房”事件一樣,此次深度僞造圖像的傳播平台依然是“電報”(Telegram),該平台可以提供端到端加密消息傳遞,極為私密,難以察覺。其次,“電報”還提供了“閱後即焚”、“群主設定不能複制轉發截圖”等功能,使得“電報”上的一個個群組成為了封閉式空間。且涉及的相關交易通過虛拟貨币進行,這樣一來,非法交易不會受到監管。

被僞色情傷害的南韓女性:3秒“換臉不雅照”,科技成性暴力幫兇

2.南韓大量普通女性受害 。

實際上,受深度僞造困擾的女性并不隻在南韓。斯嘉麗·約翰遜、艾瑪·沃特森,以及小天後泰勒·斯威夫特等歐美女明星都被AI換過臉。但是,為什麼南韓女性更受深度僞造的傷害?究其原因,是該國的“厭女文化”。

對南韓女性來說,這些深度僞造是南韓根深蒂固的厭女文化在網上的最新表現。這種文化讓年輕男性道德素質低下,讓他們覺得網傳色情圖檔很有趣。南韓人對新技術過于熱情了,竟然置道德上限于不顧。

“南韓社會不把女性當同胞。”女大學生李宥真稱:“我在讀的大學是數百所學生成為受害者的中學、高中和大學之一。”她還質問:“政府為什麼沒有在竊用朋友照片,用其來進行性羞辱成為一種數字文化之前,采取更多行動?”

被僞色情傷害的南韓女性:3秒“換臉不雅照”,科技成性暴力幫兇

厭女文化不是天生就有,而是在南韓整個社會的“熏陶”下産生的。 在南韓,長期存在性别歧視。在經合組織(OECD)國家中,南韓女性受教育程度最高,但勞動參與率卻最低。南韓的性别工資差距在35個經合組織成員國中位列第一,差距為31.2%。國家機構的立法者中隻有不到五分之一是女性。女性在上市公司董事會成員中僅占5.2%,相比之下,美國的這一比例為28%。

南韓女性在學習開車期間常會遭遇歧視問題。例如,當女性想要拿到一類駕照時,她們會被勸說改換二類駕照。即便順利拿到駕照,女性也不容易獲得處理交通事故、汽車保險、汽車修理等方面的資訊。

南韓社會中存在的“厭女症”一直沒有得到有效解決。“如今,有大量十幾歲和二十幾歲的年輕男性在物化和疏遠女性,而非建立平等自然的兩性關系。正是這樣的環境讓“N号房”和深度僞造性犯罪事件得以出現。”

繼續閱讀