LIFE

微軟:AI應建立正確價值觀 Google:機器人傷人應自動關機
微軟:AI應建立正確價值觀 Google:機器人傷人應自動關機

匯流新聞網記者 王天淼/綜合報導

微軟CEO Satya Nadella在Slate上表示,電腦行業必須開始思考如何讓智慧軟體尊重人類。他非常擔心人工智慧AI對人類生活的影響。科技行業應該教會AI樹立正確的價值觀。

美國聯邦貿易委員會研究發現,在互聯網時代早期出現的網路種族和經濟歧視,現在又卷土而來,出現在廣告或者其他的網上服務之中。微軟研究員Kate Crawford在《紐約時報》指出,在工作場所、家庭、法律系統中使用的微軟都出現AI歧視現象。

Nadella認為,演算法有責任擁有一個正確的價值觀,這樣人類才不會受到傷害。我們必須檢閱演算法的工作方式,讓智慧軟體不歧視某類人群,或者用暗黑的方式使用私人資料。

Nadella指出,一直以來,AI總是被指控腹黑,存在著性別或者種族歧視。AI的下一步發展,便是尊重種族和性別平等。正如沒有哪個孩子天生就是一個性別歧視者或種族歧視者,那些都是被教出來的。AI也是這樣,而人類就是最好的老師。

英國著名物理學家霍金曾公開表示,擔憂AI一旦失控會難以收拾。各國政府可能陷入「人工智能武器競賽」,爭相發展可應用於軍事的人工智能科技。他告誡科學家,要確保AI的設計合乎道德,防止它們出錯,因「失控的人工智能可能難以制止」。

如何讓AI安全可靠?Google列出了需要注意的五大問題,包括如何避免 AI 在完成目標的時候,不破壞其所在的環境?如何在訓練過程中,讓 AI 能有效理解指令,避免對用戶造成干擾?如何保證 AI 在自主學習時不做出超過安全範圍的「探索」,產生負面影響?如何讓 AI 能夠適應工廠測試環境與用戶使用環境的不同?

Google 旗下 Deepmind 公司開發的 AI 程式 AlphaGo 戰勝南韓棋手李世石後,曾與牛津大學的研究人員聯合發表論文,提出一種算法框架,希望 AI 機械人在傷害人類或環境時,可以被關機。他們將其稱為「紅色按鈕」。

新聞照來源 資料照