太依賴演算法,Facebook 麻煩事不斷

by:徽徽
9002
本文經授權轉載自友站科技新報文/ 黃嬿 

美國獨立非盈利新聞媒體 ProPublica 揭穿 Facebook 令人詬病的廣告機制,他們花了 30 美元在 Facebook 廣告購買軟體上透過幾個仇恨猶太人相關的關鍵字,成功對多達 19 萬目標用戶下廣告,此舉逼得 Facebook 不得不移除幾個欄位,包括研究領域與大學等個人資訊,但此事件已經造成輿論對 Facebook 假道德的質疑。

post title

去年的美國總統大選,Facebook成為散播假新聞的共犯,也讓外界看到演算法缺乏人為監管有多麼危險。

Photo: FACEBOOK(LET)

去年的美國總統大選,已經讓 Facebook 蒙上散播假新聞共犯的陰影,且實際上俄國的確透過 Facebook 假帳戶,花了 10 萬美元散播干預選舉的假訊息,Facebook 宣稱完全不知情,還得因此上國會作證。現在又被外界揭穿人人都可以輕易地透過 Facebook 鎖定特定族群散播消息,譬如反猶太團體透過 Facebook 發起反猶活動,散播不實言論等等。

中間的運作機制是用戶在個人資訊中添加的所有資訊,都會成為標籤,譬如在研究領域欄位增加反猶太相關字眼,就會納入 Facebook 的搜尋資料庫當中,提供廣告主搜尋目標受眾時使用。ProPublica 就是鍵入如何燒猶太人、猶太人毀滅世界的歷史、猶太人仇恨者、納粹黨、德國民族民主黨、德國的親衛隊等等關鍵字,就成功得到 19.4 萬目標受眾。

post title

如果一味將監管的責任與標準交給演算法,對整個使用Facebook的社群來說將是一場災難。

Photo: Rishi Bandopadhay

廣告是 Facebook 主要的收入來源,作為一個網路媒體,已經沒有傳統媒體的人為監管過程,包括批准與啟動交易等工作都交給演算法。

雖然 Facebook 口口聲聲表示反對假新聞和族群仇恨等言論,但卻沒有實際作為,再三發生的事件證實,演算法已經遭到濫用。Recode 共同創辦人 Walt Mossberg 抨擊表示,這件事情凸顯人的標準與責任交給粗糙的演算法之後,責任與標準就蕩然無存。

post title

Facebook仰賴演算法且缺乏監管早已不是新聞,這麼做早晚會被使用者與廣告主唾棄。

路透社

演算法可以決定用戶看到什麼,看不到什麼,又缺乏人為管理與監督,容易成為犯罪與仇恨的溫床。ProPublica 透過幾個仇視猶太人的關鍵字成功發佈廣告之後,向 Facebook 反應,Facebook 官方說法表示,「我們不允許在 Facebook 散播仇恨言論,我們的社群標準嚴格禁止宗教與各個人身攻擊,也禁止廣告主散播歧視訊息,但基於違反標準的內容發生太多次,決定移除相關有問題的欄位」。

Facebook 強調會加強產品護欄機制與管理審查流程,避免類似事件再度發生,但顯然對此還沒有明確的解決方案,他們也不承認自己是始作俑者,但是網路特質本來就是這樣,使用門檻低,缺乏人為監管,因此容易遭到濫用。Recode 認為,全然仰賴演算法來賺錢,失去自己的道德責任與標準,遲早有一天會被用戶與廣告主唾棄。

延伸閱讀: 《臉書該為假新聞負責嗎?
假相不要來 Google推出「真相認證」機制
俄國當局不能說的秘密:黑資料

參考資料:
01 Facebook Enabled Advertisers to Reach ‘Jew Haters
02 Facebook’s reliance on software algorithms keeps getting the company into trouble