太依賴演算法,Facebook 麻煩事不斷

本文經授權轉載自友站科技新報文/ 黃嬿 

美國獨立非盈利新聞媒體 ProPublica 揭穿 Facebook 令人詬病的廣告機制,他們花了 30 美元在 Facebook 廣告購買軟體上透過幾個仇恨猶太人相關的關鍵字,成功對多達 19 萬目標用戶下廣告,此舉逼得 Facebook 不得不移除幾個欄位,包括研究領域與大學等個人資訊,但此事件已經造成輿論對 Facebook 假道德的質疑。

文章插圖

去年的美國總統大選,已經讓 Facebook 蒙上散播假新聞共犯的陰影,且實際上俄國的確透過 Facebook 假帳戶,花了 10 萬美元散播干預選舉的假訊息,Facebook 宣稱完全不知情,還得因此上國會作證。現在又被外界揭穿人人都可以輕易地透過 Facebook 鎖定特定族群散播消息,譬如反猶太團體透過 Facebook 發起反猶活動,散播不實言論等等。

中間的運作機制是用戶在個人資訊中添加的所有資訊,都會成為標籤,譬如在研究領域欄位增加反猶太相關字眼,就會納入 Facebook 的搜尋資料庫當中,提供廣告主搜尋目標受眾時使用。ProPublica 就是鍵入如何燒猶太人、猶太人毀滅世界的歷史、猶太人仇恨者、納粹黨、德國民族民主黨、德國的親衛隊等等關鍵字,就成功得到 19.4 萬目標受眾。

文章插圖

廣告是 Facebook 主要的收入來源,作為一個網路媒體,已經沒有傳統媒體的人為監管過程,包括批准與啟動交易等工作都交給演算法。

雖然 Facebook 口口聲聲表示反對假新聞和族群仇恨等言論,但卻沒有實際作為,再三發生的事件證實,演算法已經遭到濫用。Recode 共同創辦人 Walt Mossberg 抨擊表示,這件事情凸顯人的標準與責任交給粗糙的演算法之後,責任與標準就蕩然無存。

文章插圖

演算法可以決定用戶看到什麼,看不到什麼,又缺乏人為管理與監督,容易成為犯罪與仇恨的溫床。ProPublica 透過幾個仇視猶太人的關鍵字成功發佈廣告之後,向 Facebook 反應,Facebook 官方說法表示,「我們不允許在 Facebook 散播仇恨言論,我們的社群標準嚴格禁止宗教與各個人身攻擊,也禁止廣告主散播歧視訊息,但基於違反標準的內容發生太多次,決定移除相關有問題的欄位」。

Facebook 強調會加強產品護欄機制與管理審查流程,避免類似事件再度發生,但顯然對此還沒有明確的解決方案,他們也不承認自己是始作俑者,但是網路特質本來就是這樣,使用門檻低,缺乏人為監管,因此容易遭到濫用。Recode 認為,全然仰賴演算法來賺錢,失去自己的道德責任與標準,遲早有一天會被用戶與廣告主唾棄。

科技新報 logo

科技新報

科技新報是一群對資訊科技、能源、半導體、行動運算、網際網路、醫療、生物科技有高度熱忱與興趣的產業與新媒體人士,共同組成的時代新媒體,以產出有觀點與特色的原創文章為主要任務。