匯流新聞網記者王佐銘/綜合報導
相信近年來不少人都有發現,社群軟體上掀起一陣變臉風潮,許多網紅都紛紛在自己的社交帳號上貼出換臉、變性、變老的對比照,就連政治人物也興起這股風潮,網友更是利用這款軟體惡搞不少明星、藝人。不過鮮少人知道,隨著技術越來越成熟,目前換臉技術已經達到可以以假亂真的程度,幾乎有8成的機率能騙過不少科技巨擘的臉部辨識系統,讓人忍不住擔憂會不會在網路上出現假身分詐騙或者選舉造假、情色犯罪的可能發生。
近來長期關注社群平台流行的用戶一定對於換臉、變老、性轉等app不陌生,有些程式甚至能做到用戶完全不用任何專業技術,就只靠上傳一張自己的照片就能套入知名電影、影集片段,把自己的臉換到主角身上。但這些app除了被爆出可能有有隱私權、肖像權、版權等隱私風險,最近甚至被傳出可能帶來被有心人士用來做非法行為的可能。
日前《BBC》報導指出,現在網路上流傳一種叫DeepNude的程式,只要民眾上傳女性照片,系統就會自動幫照片主角變成沒有穿衣服,而用戶便可以下載以及分享照片,倘若用戶付費,那就可以移除掉假裸照的浮水印,並且更快拿到照片。而在台灣,近期也有不少Deepfake犯罪事件產生,先前數位女力聯盟臉書貼文表示,2020年8月底開始全球前十大的色情網站之一Pornhub上有多個台灣女直播主、網紅和Youtuber的色情影片流傳,這些影片是台灣駭客團隊將這些女性公眾人物頭像合成到色情片內容中產生的,雖然根本人完全無關,但卻對多位女性公眾人物的生活產生影響。
近日有研究報告指出,隨著這樣的AI技術越來越成熟,已經足以騙過市面上許多科技巨擘所推出的臉部辨識系統。像是微軟、亞馬遜所開發的系統,透過AI Deepfake技術,辨識成功的機率高達78%,而亞馬遜成功率高達68%,幾乎可以以假亂真。
對此,研究人員就警告,因為現在AI換臉技術發展的速度實在太快,但是現有的臉部辨識系統沒有辦法跟上速度,所以越來越難以防範。所以他們告訴相關的技術專家以及民眾,如果再持續漠視樣的問題,未來很有可能會爆發更多的資安危機還有詐欺犯罪,因為人們更容易用科技假冒別人的身分,藉此騙過各種身分辨識機制。
據悉,目前各大科技廠商已經開始嚴格防範AI換臉技術可能帶來的各種侵害,他們也積極網羅人才,希望透過各方專業人士的協助,來打擊利用換臉技術來做不法行為的不肖業者。畢竟如果繼續讓這樣的技術被有心人士濫用,未來很有可能會影響網路消息、新聞的可信度,甚至間接影響到成千上萬民眾的人生。
《更多CNEWS匯流新聞網報導》
【有影】內幕/賴士葆辭黨職發難、陳以信辭召委選舉 驚險化解分裂
【文章轉載請註明出處】