【機器人世代3-3】機器人也帶有偏見?消除辦法就先從人類開始! - 匯流新聞網

DIGITAL

【機器人世代3-3】機器人也帶有偏見?消除辦法就先從人類開始!
【機器人世代3-3】機器人也帶有偏見?消除辦法就先從人類開始!

匯流新聞網記者王佐銘/綜合報導

AI人工智慧與機器人竟然也存在著「歧視」或者「偏見」?答案是「對的!」。由於近年性平意識開始深植民心,讓許多人開始疑惑為何各大廠牌的智慧語音助理都是女性,這分明就是性別刻板印象,因此認為機器人間也存在著「性別歧視」,呼籲業主趕緊改善。不過這真的那麼容易改正嗎?專家也給予了相當正確的答覆。

人工智慧與機器人的性別歧視

最近AI與機器人服務被認為有性別歧視的原因是因為有幾位從事該行業的女性發現,為什麼各大國際廠牌所推出來的語音助理像是Siri、Alexa、Google Assistant等聲音、性別設定都是女性,明顯就有男女不平等的傾向。

不過究竟是為何?就有專家解釋,其實大家主觀印象都認為「助理」這個職業應該是該由女性來擔任。畢竟女生的聲音較溫柔、個性也較順從,因此在各種刻板印象的累積下,逐漸形成了偏見,這才讓市面上出現一大票智慧助理的聲音都是女性的情況。

機器人的歧視偏見起源

由於機器人與AI是累積人類的智慧結晶所創建的,但因為創造者們本身對偏見就根深柢固地藏在心中,故在開發AI時仍有可能不小心顯現出內心一小部分的真正想法。當然些情況也不單單僅是上述所說的性別刻板印象,在國外許多地區也有些民眾對機器人的語言、口音等非常介懷,甚至還曾有種族、階級歧視的言論發生。因此只要人們對他人有歧視的一天,那被創造出來的機器智能產物理所當然都還存在著偏見與歧視。

如何破除機器人與AI的歧視偏見

其實這個議題爆發出來後,就有不少專家在探討該怎麼破除這些偏見,因此近日就有些人提出想法,像是給予人工智慧與AI一些監督,並加以訓練,當其在收集大數據資料時,便能知道該如何做出最適當的反應。

也有人表示,應該給用戶們設定規則,告訴它們該怎麼與機器人聊天、對話,這樣才會有正確的答覆。對此,許多人相當贊同上述的說法,甚至提出除了教導孩子正確平等觀念外,如何與機器人理性、禮貌溝通也是很重要的,畢竟在未來人類和機器人很有可能是一起長大的,故認為當人類懂得從小對一台機器禮貌、尊敬,那就代表他們已經破除偏見與歧視,在未來發生問題的機會也會越來越少。

更多匯流新聞網報導:
【機器人世代3-1】不斷進化!機器人的應用前景及能幫人類什麼?

【機器人世代3-2】福還是禍?霍金曾警告機器人將毀滅人類 專家這麼防
【匯流筆陣】

CNEWS歡迎各界投書,來稿請寄至[email protected],並請附上真實姓名、聯絡方式與職業身份簡介。

CNEWS匯流新聞網:https://cnews.com.tw


R18