CNEWS匯流新聞網記者謝東明/台北報導
刑事警察局員警網路情蒐時,發現自去年7月起,有數名網紅的性愛影片,於網路上流傳,但求證後發現影片都不是本人所拍攝,而且都外流自特定的推特粉絲團。刑事局表示,調查發現,是有人透過 AI Deepfake(換臉)技術,將藝人或網紅的臉部圖像,移植到色情片AV女優身上,製作成色情影片而販售得利。警方昨循線在新北市樹林區,查獲26歲朱姓男子、22歲莊姓男子、24歲耶姓女子等3人,已擴大偵辦中。
刑事局表示,販售「換臉」色情影片等行為,已涉嫌散播猥褻物及妨害名譽等罪刑,經偵查第四大隊第二隊多日蒐證後,除循線逮獲朱嫌等3人,也起出現金458萬5000元、金融帳戶存簿13本、電腦2台、硬碟2顆、手機2支、BENZ自小客車1台等物,並由法院裁定扣押不法金流共3筆。
刑事局表示,專案小組透過科技偵查手法,發現經營推特粉絲團的朱姓主嫌,透過Deepface軟體,以擅長AI Deepfake技術,製作女性網紅的換臉性愛影片,只要支付新台幣數百元不等的會員費,加入朱嫌經營的私密聊天群組,就即可線上瀏覽完整版的網紅換臉色情片。
為了增加會員的忠誠度,客製化消費者的口味,粉絲團的私密聊天室,還會不時舉辦「票選」或「集資」活動,選出某位知名網紅,再由朱嫌等人製作獲選網紅的換臉性愛影片,再上傳販售。截至今年10月初,遭換臉製作成色情影片的被受害網紅超過百人,朱嫌等人的不法獲利,也高達千萬元以上。
刑事局表示,專案小組見時機成熟,昨天搜索朱嫌位於新北市住處與工作室,拘提朱嫌等3人到案,訊後,依涉嫌散播猥褻物與妨害名譽等罪嫌送辦。也呼籲,AI Deepfake技術,乃透過人工智慧與模型,重建追蹤等方式,將他人圖像的表情,替換到指定影片上,而達成影片特效製作。
如果不當使用合成於色情影片上,卻會造成網路性暴力的情形發生,國人在新興科技軟體之使用上,更應注意法律規範與道德界線,凡走過必留下痕跡,避免以身試法。也希望發現遭竊取肖像權,作為色情影片的被害人,可向刑事警察局報案,以利後續偵查與刑事賠償等事宜。
照片來源:刑事局提供
更多匯流新聞網報導:
【文章轉載請註明出處】