CNEWS匯流新聞網記者潘永鴻/台北報導
輝達(NVIDIA)執行長黃仁勳的AI演講,讓台灣備受全球關注,然而網路詐騙猖獗,外接擔憂該技術可能被濫用。台北市議員許淑華今(4)日表示,近期AI換臉偽造詐騙案件層出不窮,只需數10秒的音頻或畫面,就能利用AI技術以假亂真,未來將與資訊局及警察局密切討論如何防範詐騙。
許淑華也指出,AMD執行長蘇姿丰在2024 Computex發表主題演講,討論AI PC的未來,另有消息稱黃仁勳將在高雄及台南設立AI工廠;同時,許多社群網站出現類似「一頁式網頁」等,連結這些知名人物,可能利用深偽(Deepfake)技術進行假投資真詐騙。
許淑華表示,隨著人工智慧發展,深偽技術可能被有心人士利用於假訊息、影片、語音等媒體素材的合成製作,比如「換臉」和「變聲」等效果,進一步強化詐騙手法的擬真性,讓民眾難以辨別真偽。她強調,未來將加強與警察局的密切合作,降低民眾受騙的風險。
內政部警政署刑事警察局的統計數據顯示,投資詐欺案件發生數量在111年為711件、112年為1137件、113年至4月為368件;解除分期付款詐騙(ATM)在111年為509件、112年為660件、113年至4月為177件;一般購物詐欺(偽稱買賣)在111年為547件、112年為514件、113年至4月為151件;假冒機構(公務員)在111年為166件、112年為110件、113年至4月為29件。
國立台灣科技大學資訊管理系教授查士朝受訪表示,近年來已有不肖人士透過深偽技術進行詐騙,例如偽冒人的影像和聲音,假冒公司總經理或高階人員進行欺騙。
查士朝指出,雖然網路信箱有防毒軟體及過濾器,但詐騙集團利用AI技術深層變造,能繞過這些防護措施,導致垃圾信件和病毒數量增加。他還提到,另一種詐騙手法是利用AI進行語言翻譯和文字攻擊,詐騙集團通過AI分析,判斷哪些人更容易受到詐騙,進而精準鎖定目標進行詐騙行為。
查士朝表示,未來虛擬雙聲技術可能會被用於虛擬世界的詐騙,詐騙集團創建虛擬角色進行詐騙,這在網路虛擬世界中將難以及早辨識。
照片來源:取自許淑華粉專
《更多CNEWS匯流新聞網報導》
【文章轉載請註明出處】