輕輕一鍵就用Deepfake幫脫衣 Telegram驚見10.5萬名女性的假裸照 - 匯流新聞網

DIGITAL

輕輕一鍵就用Deepfake幫脫衣 Telegram驚見10.5萬名女性的假裸照
輕輕一鍵就用Deepfake幫脫衣 Telegram驚見10.5萬名女性的假裸照

匯流新聞網記者王佐銘/綜合報導

隨著科技的發達,有心人士犯罪的方法也跟著日新月異。近日荷蘭情報企業Sensity就提出報告,表示2019年月開始有約10.5萬的女性被網友利用人工智慧的deepfake bot程式製作假裸照,只要手指輕輕按幾個鍵,用戶就可以幫女性脫衣服。

根據《BBC》報導指出,網友們只要透過Telegram把照片傳送到人工智慧程式,系統就會自動幫照片主角變成沒有穿衣服,而用戶便可以下載以及分享照片,倘若用戶付費,那就可以移除掉假裸照的浮水印,並且更快拿到照片。

根據Sensity調查,10.5萬名女性中,有部分是名人或者是政客。對此,有不少用戶接受訪問表示,他們這麼做的用印是想幫現實生活中認識的女性脫衣服,想一窺她們的肉體。

程式管理員受訪時也提到,當初設計這款軟體指是想說玩玩,並沒有想要涉及暴力,也認為不會有人拿這樣的照片去勒索他人,因為假裸照並不是那麼擬真、毫無瑕疵。

據了解,Sensity已經跟Telegram等相關執法機構查詢,並分享他們見識到這樣的現象,只是目前並沒有收到任何回應。不過值得一提的是,Deepfake這種技術最近已經引來了不少假新聞、假消息傳播的疑慮,但是各方法院還是沒有對樣的偽照技術明確定義犯罪行為,因此對於這種現象表示擔憂。

最近也有報導指出,Deepfake影片不只會被用在惡搞影片,近年來甚至成為有心人的工具,用以操控輿論、影響選舉,甚至成為迫害、騷擾的工具,近年來隨網路科技與社群平台越來越發達,Deepfake假訊息影響的層面也越來越廣,因現代政治人物也多會使用社群帳號與支持者互動,就出現不少敵對國家或是駭客團體透過Deepfake影片試圖操弄選舉的狀況發生。

而近期在台灣也有不少Deepfake犯罪事件產生,根據數位女力聯盟臉書貼文表示,今年8月底開始全球前十大的色情網站之一Pornhub上有多個台灣女直播主、網紅和Youtuber的色情影片流傳,這些影片是台灣駭客團隊將這些女性公眾人物頭像合成道色情片內容中產生的,但卻對多位女性公眾人物的生活產生影響。

消息來源:sensity、bbc
照片來源:pixabay

更多匯流新聞網報導》

民間反瘦肉精聯盟:陳吉仲昨是今非 雙重標準不配任農政首長

「別當民主罪人」廣告開跑 江啟臣:蘇貞昌別當民主自由劊子手

【文章轉載請註明出處】


R18