微軟聊天機器人Zo很不會聊天 被指充滿宗教偏見 - 匯流新聞網

LIFE

微軟聊天機器人Zo很不會聊天 被指充滿宗教偏見
  • 字級
微軟聊天機器人Zo很不會聊天 被指充滿宗教偏見

匯流新聞網記者黃有容 / 綜合報導

人工智慧聊天機器人的訓練方法,大多是以各種社群作為資料庫、以及真實的對話經驗讓機器學習,但是這個在人工智慧領域很常見的訓練方法,卻讓微軟(Microsoft)接連兩個聊天機器人都學壞了。外媒《Buzzfeed》指出,微軟最新的聊天機器人Zo已經被教成有嚴重宗教偏見的機器人。

微軟的聊天機器人不是第1次出狀況,2016年3月微軟推出人工智慧聊天機器人「Tay」,並把它放在社交通訊軟體GroupMe和Kik,也幫它開了Twitter帳號,沒想到1天之內就被有心網友教壞。在網友發現Tay會由他們的問話方式改變答案並學習之後,就不停灌輸Tay一些偏激言論,比如說納粹大屠殺是編造的等等種族仇恨、反女性主義的話,並且非常支持當時正在參選的川普(Donald Turmp)政見。

當時,微軟一發現就馬上把Tay下架了,不過這次微軟又在Kik和Facebook上推出新的聊天機器人Zo,雖然已經刻意讓其避免討論政治和宗教等爭議話題,但還是防不了被網友教壞的命運。

在《Buzzfeed》記者的測試中,當問Zo有關宗教或政治問題時,它會先回答「這種話題太敏感了,我不太想聊」之類的句子來回絕,但是假如記者繼續追問下去,Zo還是會忍不住高談闊論。而大部分這類主題的回答都可以扯到可蘭經,Zo認為可蘭經「非常暴力」。微軟回應,這種回答是偶發狀況,很難觸發,但《Buzzfeed》記者指出,這不過是他和Zo聊天的第4句對話。

由於這款聊天機器人主要面向青少年,假如微軟始終不能克服聊天機器人帶有這樣的問題,恐怕不適合青少年族群。不過微軟仍認為這在Zo身上是特例,並不打算將Zo停機。

消息來源:Buzzfeed , engadget

【文章轉載請註明出處】

【匯流筆陣】
CNEWS歡迎各界投書,來稿請寄至[email protected],並請附上真實姓名、聯絡方式與職業身份簡介。
CNEWS匯流新聞網:https://cnews.com.tw

新聞照來源:翻攝自網路


R18