LIFE

仇恨言論依然棘手 Facebook坦承:仍需靠人力審查
仇恨言論依然棘手 Facebook坦承:仍需靠人力審查

匯流新聞網記者洪雅筠/綜合報導

Facebook近年來因為假新聞、仇恨言論等風波而遭受許多批評,雖然在事件後他們也祭出許多政策改善,但似乎仍追不上這些問題發生的速度。Facebook在今(16)日公布了《年度透明度報告》(Facebook Transparency Report),其中詳述他們在今(2018)年第一季是如何加強社群規範、打擊不當內容等等,但也發現仇恨言論的數量較過去來得更多,對此,Facebook坦承「仍需靠人力審查」。

去年9月初,Facebook對外宣布在廣告投放紀錄上發現俄羅斯水軍下了3,000則以上廣告、花了超過10萬美元干預2016美國總統大選,經過調查,受到這些政治廣告影響的用戶高達1.26億人,超乎原先的預計。

接著,今年3月,Facebook爆出史上最大的個資外洩風波,他們自行公布宣布禁止一政治商業數據分析公司「劍橋分析」(Cambridge Analytica)使用Facebook服務,原因與該公司非法使用Facebook用戶數據,並至少造成8,700萬名用戶個資遭到利用有關,而「劍橋分析」更是美國總統川普於2016美國總統大選競選期間所聘用的數據公司之一。

這些事件發生後,Facebook大動作的做出改善,包括祭出舉報獎金制度、封殺多家數據公司、撤銷200款應用程式,以及政治廣告驗身分制度等等,因應未來可能發生的所有情況。而在今日Facebook公布的最新一季報告中表示,他們已在三個月前關閉了5億8,300個假帳號、移除了8億3,700萬則垃圾訊息貼文,更多次的擋下了每天數百萬次想設立假帳號的企圖。

此外,針對人工智慧審查貼文的部分,已成功的刪除了340萬則具有暴力血腥之虞的貼文內容,較2017年第4季多近3倍,其中約有85.6%案件皆是在用戶還未檢舉前就已被偵測出來;不過較讓人意外的是,被人工智慧所刪除的仇恨言論比例僅有38%。

對此,Facebook的產品副總裁羅森(Guy Rosen)指出其中的困難之處,他表示,要完全透過人工智慧準確地判斷這些仇恨、有害內容,還有一段很長的路要走;舉例來說,AI現在並沒有足夠的能力去辨識該用戶是在散布仇恨言論,或只是在描述自己過去的傷痛,「這樣的誤解可能會衍伸出一些問題。」

Facebook表示,人工智慧這項技術需要大量的資料訓練才能辨識特定的行為模式,但目前一些較少使用到的語言或內容,資料是相對缺乏的,且對手可能會不斷變換方法來突破我們的管控,Facebook坦承,人工智慧的審查效果確實尚不佳,目前仍需要人力審核。

Facebook執行長祖克柏在今年的F8開發者大會上談到,要能完全理解人類話中的意思,其實還是需透過人類的雙眼,因此,「我們的團隊會親自審查,確定它是沒有問題的。」此外,祖克柏還樂觀的表示,相信在未來的5到10年內,Facebook能開發出更精準理解人類語意的人工智慧工具,且精確的標記仇恨言論。

Facebook表示,今年會將安全團隊增至20,000人。

消息來源:theverge

更多匯流新聞網報導:
Facebook開設「青少年專區」 強化網路安全指導
Facebook個資外洩醜聞後 最新民調:用戶使用量根本沒減少

【匯流筆陣】
CNEWS歡迎各界投書,來稿請寄至cnewscom2016@gmail.com,並請附上真實姓名、聯絡方式與職業身份簡介。
CNEWS匯流新聞網:https://cnews.com.tw

新聞照來源:翻拍自網路