CNEWS匯流新聞網記者謝東明/台北報導
刑事局分析資料發現,近來深偽影像技術的進步,雖帶來了劃時代的意義,但有別以往的眼見為憑,現在已不復見。刑事局表示,這樣先進的科技若運用在電影拍攝還原或改變演員容貌,能夠創作出更多元精采的影視作品,然而若遭不肖人士將這項科技運用在詐騙,對民眾肖像隱私的人格權及財產,無非是一大威脅。
刑事局表示,最早「深偽」專用於替換人臉的軟體名稱,以「自動生成編碼器」的深度學習系統為基礎,以AI掌握對象特徵點,訓練判別生成高度相似的臉孔影像或聲音。目前「Deepfake」已經成為利用深度生成技術生成影像、聲音、文字等多媒體內容的總稱,包括臉部特徵變換、性別與年齡轉換、圖像風格轉換等。
尤其,深偽內容的氾濫,成為詐騙的犯罪手法。近期就有詐騙歹徒利用Deepfake影片詐騙金錢、感情的案例,演變成另一場科技犯罪風暴。例如,有一間外商公司的執行長,因為接到英國母公司上司一通電話,要求他緊急將新台幣620萬元,匯至指定供應商的帳戶,而執行長認為自己對上司聲音相當熟悉,所以不疑有它,隨即派人轉帳,但上司的聲音是透過聲音轉換(Voice Conversion)的技術偽造的,單純的聲音深偽的犯罪手法,對嫌犯來說更加容易,使民眾降低戒心而上當受騙。
刑事局表示,隨著近年來深度學習技術模型技術的快速發展,大幅提升做出高仿真內容偽造的效能,深偽技術變得更容易取得、偽造時間縮短、技術獲取門檻變低的趨勢,在AI來臨的時代,民眾遇到親友或陌生人,以影片或電話借錢或威脅匯款等,應以其他方式聯繫當事親友,以多方聯繫管道或撥打165反詐騙諮詢專線查證,才能避免避免AI科技造成的危害或財產損失。
照片來源:刑事局提供
更多CNEWS匯流新聞網報導:
【文章轉載請註明出處】