去年的美國總統大選,已經讓 Facebook 蒙上散播假新聞共犯的陰影,且實際上俄國的確透過 Facebook 假帳戶,花了 10 萬美元散播干預選舉的假訊息,Facebook 宣稱完全不知情,還得因此上國會作證。現在又被外界揭穿人人都可以輕易地透過 Facebook 鎖定特定族群散播消息,譬如反猶太團體透過 Facebook 發起反猶活動,散播不實言論等等。
中間的運作機制是用戶在個人資訊中添加的所有資訊,都會成為標籤,譬如在研究領域欄位增加反猶太相關字眼,就會納入 Facebook 的搜尋資料庫當中,提供廣告主搜尋目標受眾時使用。ProPublica 就是鍵入如何燒猶太人、猶太人毀滅世界的歷史、猶太人仇恨者、納粹黨、德國民族民主黨、德國的親衛隊等等關鍵字,就成功得到 19.4 萬目標受眾。
廣告是 Facebook 主要的收入來源,作為一個網路媒體,已經沒有傳統媒體的人為監管過程,包括批准與啟動交易等工作都交給演算法。
雖然 Facebook 口口聲聲表示反對假新聞和族群仇恨等言論,但卻沒有實際作為,再三發生的事件證實,演算法已經遭到濫用。Recode 共同創辦人 Walt Mossberg 抨擊表示,這件事情凸顯人的標準與責任交給粗糙的演算法之後,責任與標準就蕩然無存。
演算法可以決定用戶看到什麼,看不到什麼,又缺乏人為管理與監督,容易成為犯罪與仇恨的溫床。ProPublica 透過幾個仇視猶太人的關鍵字成功發佈廣告之後,向 Facebook 反應,Facebook 官方說法表示,「我們不允許在 Facebook 散播仇恨言論,我們的社群標準嚴格禁止宗教與各個人身攻擊,也禁止廣告主散播歧視訊息,但基於違反標準的內容發生太多次,決定移除相關有問題的欄位」。
Facebook 強調會加強產品護欄機制與管理審查流程,避免類似事件再度發生,但顯然對此還沒有明確的解決方案,他們也不承認自己是始作俑者,但是網路特質本來就是這樣,使用門檻低,缺乏人為監管,因此容易遭到濫用。Recode 認為,全然仰賴演算法來賺錢,失去自己的道德責任與標準,遲早有一天會被用戶與廣告主唾棄。