數位性暴力高達 21 種卻「無法可管」,民團訴求專法防止小玉挖面再發生
法令真空讓性暴力橫行,受害者永無寧日
Deepfake 中文又稱「深度偽造」,通過交換 2 張圖像/影片中的人臉達到偽造身分之目的,臺灣數位女力聯盟去年 7 月便揭露國內已有「台灣網紅合成」犯罪集團利用技術,將名人臉部影像和日本色情片結合,再透過 Telegram 加密通訊軟體加以販售牟利。
數位女力聯盟祕書長張凱強說,當時嘗試聯絡十多位被害女性,詢問是否有提告意願,並願意提供法律協助,但絕大多數受害者都因為擔心這種數位犯罪難以偵破,一旦被發現提告,反而因此遭到更嚴重的報復性羞辱而退卻。這正凸顯了現有法令難以遏止數位性暴力,以及對被害人保護不足等問題。
臺灣對於「未經同意散布性私密影像」行為,沒有足夠的法令加以約束,只有針對未成年性犯罪以《兒童及少年性剝削防制條例》規範,以及今年 5 月三讀修正增訂《刑法》第 222 條,亦即在強制性交罪中若出現「對被害人為照相、錄音、錄影或散布、播送該影像、聲音、電磁紀錄」時,可加重刑罰。
但這些都無法適用遭到 Deepfake 數位合成犯罪所害的已成年受害者。
對於 Deepfake 這樣的侵害,目前只能依據《刑法》第 235 條「散佈猥褻物品罪」及《刑法》第 310 條誹謗罪究責,然而這2罪最重刑度都僅2年以下有期徒刑,且法院量刑大都可以易科罰金免除牢獄之災,導致此種犯罪無法有效遏止。
張凱強補充,從國內現行法規來看,像 Deepfake 這樣沒有達到最重本刑3年以上的刑責,也無法適用《通訊保障及監察法》第 11-1 條,因此無法聲請調閱通聯者的使用資訊與通聯紀錄,進一步使得有效查緝大打折扣。
只究責的刑法難防憾事,民團訴求以專法因應時代變動
也因此,受訪的法界、學者及婦團多數都認為,刑法目的只在「究責」,如果要針對數位性暴力「防制」,應該從前端宣導、究責到事後的被害人保護都包含進去,並且朝制定「專法」的方向來考量。
陳明清平日身兼婦女救援基金會義務律師,之前便負責草擬《侵害個人性私密影像防制條例》立法草案。他指出,倡議設立專法目的很簡單,「數位性暴力不是單純把行為入罪化就可以,而是當事人若訴諸司法,將能要求網路業者下架影像,並獲得相關的程序保障,就像家暴案中也有人身保護預防一樣。」
陳明清還提醒:「專法對檢警來說,也有比較明確完整的程序可依循,且受害者報警一定是從就近的派出所開始,若不能以專法確立出和性侵害案件同樣完整的 SOP 流程,再加上值班員警沒有敏感度,整個報案過程都會讓人很不舒服、無法得到幫助。」
數位性暴力形式高達 21 種,短中長期規畫讓法令一次到位
事實上,數位性暴力的形式遠遠不只 Deepfake。依據數位女力聯盟研究,數位性暴力可分為針對性別的隱私權侵害、針對性別的仇恨言論與行為、數位性騷擾與虛擬性侵、數位人口販運與性剝削、圖像影音濫用等 5 種類型,共 21 種樣態。
其中包括透過 AI 技術的虛擬影音性濫用、利用物聯網科技(Internet of Things,簡稱 IoT)的智慧型家具遠端監控被害者生活,還有利用 AirDrop 或藍芽等遠端通訊形式傳送不雅照給他人等,都是因應科技發展所產生的新形態數位性暴力。