Facebook 近年來不斷為平台上訊息真偽以及內容適當性所苦,在維護言論自由的同時,他們也希望確保用戶不被平台上的內容誤導或受傷。為此,Facebook 一方面採用自動系統以消除不適當的內容,一方面則仰賴人力審核。例如在「暴力內容偵測手冊」中提到,人們常用開玩笑或不正經的方式威脅他人來表達不滿的情緒,而 Facebook 認為諸如「John,我要殺了你!」的言論是可接受的,但像「John,我要殺了你!我手上有把不錯的刀子。」就會被審核人員移除。
我們可從上述範例看出 Facebook 想要這些審查人員辨別哪些言論是純粹發洩情緒,哪些會對他人造成實際的威脅:當貼文中有較具體指出威脅的類型、時間地點或方法時,就有較大的可能性被移除。此外 Facebook 也會特別關注那些提到特定族群或弱勢群體的貼文,例如猶太復國主義人士或無家可歸的人。
但可想而知的是,這類的審核機制都存在備受爭議的灰色地帶。比如說 Facebook 內部認為「與動物虐待有關的照片或影片,應該繼續保留在平台上以提升人們在動物權利方面的意識」,不過兒童虐待相關的內容就多半會被移除。另外和「自我傷害」相關的內容也是允許的,因為他們不想懲罰或限制那些極度痛苦的人。
英國衛報指出,這些審查人員需要對數以百萬計的可疑貼文進行審核。Facebook 全球政策管理負責人 Monika Bickert 表示,「審查人員往往無法負荷這麼大量的貼文,因此他們常常在決定貼文的適當性時犯錯。」「Facebook 龐大而多樣化的使用者讓我們很難界定什麼樣的內容對一群人是可接受的,但對另一群人又是不合適的內容。」Bickert 曾向科技媒體《The Verge》表示,Facebook 將用戶的安全視為首要任務:
維護用戶安全是我們最重要的任務。Mark Zuckerberg 最近宣布在未來一年中,Facebook 會在現有的 4,500 人社群維護小組中再增加 3,000 名人員來審查數百萬則貼文並加速審核流程。我們會讓用戶更容易舉報問題、讓審查人員更快辨別出違反 Facebook 內部規範的內容,且協助用戶透過法律管道解決問題。
近幾個月的內容審查爭議,包含越戰圖片移除、直播殺人影片等皆促使 Facebook 重新審視內容審核機制,並雇用更多審查人員以進行移除不適當內容的工作。上述事件顯示這些具爭議性的內容有多麼容易在這個平台上發布和分享,可是 Facebook 對這些爭議向來未能提供足夠的回應,以及良好的解決方案。
今年 5 月初,Facebook 宣布用戶人數正式突破 20 億人,活躍用戶則達 18 億人。隨著用戶人數的增長,如何建立一套有效且迅速的內容審核機制,對 Facebook 而言,絕對是一項刻不容緩的重要任務。
延伸閱讀:《為打擊酸民開先例 奧地利法庭判臉書刪掉仇恨貼文》
《人死後,Facebook帳號該怎麼辦?》
《你也被這篇文騙到了嗎? 「70%網友只看標不看內文」》
參考資料:"Leaked moderation guidelines reveal how Facebook approaches handling graphic content"