匯流新聞網記者黃有容 / 綜合報導
近日Facebook的人工智慧研究團隊FAIR發表論文,表示他們的人工智慧學會談判了。不過,人工智慧們不但自己學會了談判技巧,甚至在對話中發明了一套自己的語言,工程人員完全無法判讀。
FAIR在論文中,說明此次訓練人工智慧的方法,是讓機器人另一個機器人,或是真人談判如何分配物品的任務。訓練中最重要的技術,就是研究人員為機器人建立的對話推演(Dialog rollouts)。機器人被建立了對話者的心理模型,可以在收到一句話的時候,推論出自己回覆的所有選項,對方各自會有什麼回答,以及最後可能達到的結果。
在對話推演的訓練下,機器人會經由談判任務、與談判對象對話的過程,持續升級對化的策略。Facebook的機器人們在訓練中自行學會了一些研發人員沒有教的談判策略,這已經是相當了不起的進展,但研發人員沒想到的是,當兩個機器人一組進行談判時,竟然自行發展出工程師無法解讀的非人類語言,並且藉此進行交流!最後研發人員只能強制干預、修改參數。
Facebook的FAIR團隊在論文中表示,雖然難以置信、也令人害怕,但是也代表「未來的研發還有許多未知可以探討,尤其是在探究更多推理策略,以及增加人工智慧語言的多樣性、但不讓其偏離人類的語言上。」
延伸閱讀:
【匯流新聞網】Facebook人工智慧會談判了 還自己學會耍詐
消息來源:The Atlantic
【文章轉載請註明出處】
【匯流筆陣】
CNEWS歡迎各界投書,來稿請寄至[email protected],並請附上真實姓名、聯絡方式與職業身份簡介。
CNEWS匯流新聞網:https://cnews.com.tw
新聞照來源:翻攝自網路