DIGITAL

Google用來管控仇恨言論的人工智慧 竟然有「種族歧視」?
Google用來管控仇恨言論的人工智慧 竟然有「種族歧視」?

匯流新聞網記者紀沈廷/綜合報導

看來人工智慧對於人類,並不是這麼的一視同仁呢。有消息指出,Google研發、用在紐約時報、BuzzFeed News等單位監管仇恨言論的AI人工智慧,竟然有種族歧視的傾向。

先前,Google曾宣布,旗下的新聞實驗室(News Lab)跟專門從事調查報導的非營利組織Propublica合作,推出一套機器學習工具,藉此追蹤美國仇恨言論攻擊,建立美國仇恨言論紀錄資料庫,收集與仇恨言論攻擊與辱罵有關的新聞故事,提供記者能藉由這些資料來撰寫仇恨言論犯罪相關新聞。Google新聞實驗室打造了仇恨言論新聞紀錄索引,將仇恨言論相關新聞與美國民眾的通報,通通蒐集起來;而Propublica和資料視覺化工作室Pitch Interactive則藉由Google雲端自然語言API,來建立視覺化工具,幫助記者查找群國發生的仇恨言論相關事件。

但從今年8月初起,來自華盛頓大學、卡內基梅隆大學與艾倫人工智慧研究所的研究員,在義大利佛羅倫斯所舉辦的國際計算語言學大會上發表一篇研究,他們表示,Google與其母公司底下一間子公司研發的這項人工智慧,經常把非裔美國方言當作遏獨言論。根據研究發現,這凸顯了電腦學億容易受到偏見影響的特點,還有這項特點對資料庫中缺乏代表性團體所導致的無心後果。研究這個問題的AI研究員擔心,這種科技藉由大量資訊來歸納出某種特定模式,所以很容易會發生不平等的情況。

事實上,Google過去也曾發生過電腦學習有歧視的問題;在2015年時,Google底下一個用來搜尋照片的功能,便曾將非裔美國人標記為大猩猩;到了2018年,另一個把人們自拍照及熱門藝術作品湊對的功能,也不小心將非裔美國人士與描繪奴隸的作品進行連結。另外,研究也強調了電腦學習其實在過濾、檢查網路言論方面有所限制,儘管電腦學習可以自動運行、減少審核員的工作量,不過時常無法根據前後文正確理解,無法分辨帶有嘲諷意味的玩笑,究竟是有趣還是會造成困擾。

研究成員在閱讀過去所發表的報導中,發現仇恨言論辨識器,經常無可避免的將非裔美國英語標記成不恰當的言論,他們也因此擔心這項科技是否可能會讓非裔美國人的聲音,從社群媒體或網路討論上消失。不過也有人認為,科技不會有完美的一天,而這也是電腦學習相關研究的本質。

參考來源:Vox、TechCrunch
照片來源:Pixabay

更多匯流新聞網報導:
祂的降臨,是為眾生!京都百年佛寺請出「AI觀音」 當鎮寺之寶

去年虧損5億!全球最有名的人工智慧公司 得靠Google出手救援

【匯流筆陣】
CNEWS歡迎各界投書,來稿請寄至cnewscom2016@gmail.com,並請附上真實姓名、聯絡方式與職業身份簡介。
CNEWS匯流新聞網:https://cnews.com.tw

【文章轉載請註明出處】