AI「深偽」性犯罪肆虐,南韓女性如何自救?

發佈日期:
2025-05-07
文章分類:
文章分享

利用AI把女性照片移花接木到色情影像的「deepfake」(深偽)網路犯罪層出不窮,南韓處於這場數位性暴力危機的震央。韓國受害者致力自救的同時,美國則通過新法案,首次把「未經同意的AI裸照」列為聯邦重罪。

AI-深偽-Deepfake-性犯罪-韓國-南韓-高雄明星中學-厭女-仇女-網路犯罪-霸凌圖片來源:Shutterstock

化名露瑪(Ruma)的女性,2021年夏天在吃午餐時,手機突然收到一連串通知。

她打開訊息,如五雷轟頂。她放在社群網站的臉部照片,被移花接木到各種裸體上,傳送到有好幾十個用戶的傳訊軟體Telegram聊天頻道。

這個頻道的截圖中,充斥下流低俗的惡意評論,如同匿名分享這些照片的傳訊者一樣。他們寫道,「好玩吧?看你自己的色情影片,你其實很享受吧。」

這些騷擾擴大成為要讓更多人看到的威脅,警方也無法找到散佈者。傳訊的人似乎很清楚露瑪的個人資訊,但她根本沒辦法找出這些人是誰。

露瑪告訴《CNN》,「我一直被這堆影像轟炸,從來沒想過我人生中會出現這種事。」

報復色情,也就是非自願分享性相關的影像,跟網路存在一樣久。而AI工具的普及,代表任何人都可能成為深偽犯罪的目標,即使他們從來沒有拍過、傳過裸照給別人。

 

全文請見 天下雜誌