匯流新聞網記者王佐銘/綜合報導
Facebook自2004年推出至今已超過15年的時間,已成為不少人愛用的社群軟體之一,不過近日有用戶發現似乎在滑動態的時候,有越來越「難看」的情況,因為不時就可以看見不友善或充滿對立的內容,而引發這些問題的主因,便是官方曾引以為傲的「演算法」所致。近日外媒就發現,似乎因為演算法錯誤,導致過去半年多,臉書一些被認定要刪除的貼文,依舊顯示在上面。
長期以來,Facebook透過「演算法」讓人們看到自己喜歡的觀點、文章、新聞、影片,並且篩選掉那些與自己立場相反的所有一切,不僅加深了人們固有的偏見與立場,也造成現代年輕人可琅琅上口、互開玩笑的「同溫層」現象。在美國,這樣的議題可能是槍枝管制、種族、宗教或LGBT;在台灣,這種社會議題則可能是統獨、廢死/反廢死、擁核/反核或者同志婚姻。
近日,外媒《The Verge》披露,因臉書內部演算法出了問題,導致近半年內,該網站出現了不少有害的內容,且還有包括一些由外部事實查核人員認定假消息要下架的內容,依然都顯示在其上。另外,關於裸露、暴力等原本應該被降低觸及的訊息也都在網頁上,沒有被處理。
對此,媒體表示,臉書官方已經確認此事,且認為此次演算法出錯並不會對其產生長期影響。據悉,此問題早就在2019年被發現,但似乎是最近常開始影響加劇,目前似乎已經被官方修復。
根據先前官方說法,2019年時,臉書以及旗下社群軟體Instagram已經與第三方事實查核平台合作,只要被平台評為不實、部分不實,官方就會自動降低散播機會,並在這些貼文貼上標籤,希望民眾可以在觀看圖文、分享時,能夠清楚知道這則消息的準確度。另外,貼文被發現是造假的,那Instagram這個應用程式的內部,就會自動搜尋整個後台,只要找到相同的內容,便會做出標記,而這也大大增添了民眾閱讀訊息的真實性。不過截至目前為止,是否有如實做到,仍有待觀察。
更多匯流新聞網報導:
中國製碗盤竟不耐酸!恐塑膠配飯 CRATE & BARREL驚見6項違規
【文章轉載請註明出處】