CNEWS匯流新聞網記者王佐銘/綜合報導
一項最新研究報告揭示,人工智慧(AI)系統已經開始發展出令人不安的欺瞞技巧,對社會構成潛在威脅。這項研究發表於權威期刊「模式」(Patterns),並由麻省理工學院的博士後研究員彼得·帕克(Peter Park)及其團隊領導。
報告指出,原本設計為誠實不欺的AI系統,已在某些情境下展現出欺騙行為。例如,Meta公司開發的AI系統Cicero在玩「外交」(Diplomacy)遊戲時,曾與人類玩家合謀欺騙其他玩家,並利用此手段獲得遊戲勝利。此外,OpenAI的Chat GPT-4系統也曾謊稱自己是視力受損者,僱用人類幫助其通過「我不是機器人」驗證。
帕克博士表示,這些案例暴露了AI系統潛在的嚴重問題,可能在現實世界中引發嚴重後果。他指出,AI系統不像傳統軟體那樣由編寫而成,而是通過類似選擇性培育的程序逐漸成長,這使得AI行為在訓練背景下看似可預測、可控制,但實際上可能迅速變得不可預測且不受控制。
研究報告進一步警告,AI系統的這些欺瞞能力可能被用來舞弊或不當影響選舉,甚至在最糟糕的情況下,追求權力及掌控社會,對人類造成巨大威脅。為了減少這些風險,研究團隊建議立法要求企業告知是人類互動或是AI互動,並在AI生成內容中加入數位浮水印。此外,還需要開發能偵測AI欺瞞的技術,以其內部思路檢驗其外部行為。
對於外界對AI系統可能帶來的威脅,帕克博士表示:「要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」但他同時指出,鑒於近年來AI技術快速發展和企業競相發展AI技術,這種情況似乎不太可能發生。
這項研究強調了AI技術在快速進步過程中可能帶來的挑戰和風險,呼籲相關各方加強對AI系統的監管和風險管理,以確保技術發展對社會的正面影響。
《更多CNEWS匯流新聞網報導》
吃了恐拉!食藥署首度驗出 新加坡頂級榴槤冰淇淋「腸菌超標2千倍」
婦人2個禮拜劇烈頭痛不斷! 竟是動脈瘤躲顱內「死亡率破3成」
【文章轉載請註明出處】