愛子心切卻被判定為性犯罪者
根據《紐約時報》報導,去年 2 月一位父親 Mark 注意到兒子私密處發炎,但由於疫情下診所仍休診,因此在護士的建議下, Mark 使用安卓(Android)手機拍下兒子腹股溝(又稱鼠蹊部)的照片,將照片傳給醫生後再進行視訊診斷。在 Mark 拍下照片的兩天後,即收到 Google 的通知,告訴他由於帳號出現疑似非法的有害內容,因此帳號已遭 Google 鎖定。
Mark 無法使用 email、通訊錄、照片,且因為他使用的是 Google 電信服務 Google Fi,因此連手機號碼都遭停用,他也曾試圖申訴 Google 的決定,但都被 Google 拒絕。2021 年 12 月警察針對 Mark 的事件展開調查,證實這次事件與犯罪無關。
用AI演算法防堵兒童色情照片
像其他網路平台 Facebook、Twitter 等,Google 對於照片的審查是透過微軟的 PhotoDNA 圖片辨識比對技術,而這樣的機制曾在 2012 年成功逮捕一位藉 Gmail 傳送兒童色情照片的性犯罪者。
2018 年 Google 推出圖片審查的 AI 工具,透過 AI 來辨識從沒見過的兒童性虐資料(CSAM),並以最快的速度下架照片並通報。Google 發言人指出,藉由機器學習,並建立雜湊值(hash value,又稱數位指紋),來與已知的 CSAM 內容相比對。AI 發現不適當的內容後,Google 將通報相關組織。另外發言人也說 Google 只會在用戶對照片採取動作時,加以審查,包括將照片複製到 Google 相簿中等行為。
而對於誤舉報的事件,Google 給出的回應則是,公司遵照美國法律並運用雜湊值和 AI 來判定哪些內容是 CSAM,另外 Google 也設有團隊來檢視遭舉報的內容是否準確,且也有諮詢小兒科醫生來辨識那些照片是用於醫療需求。
舉著審查大旗 卻侵犯到用戶隱私
儘管藉由照片審查來保護兒童的權益固然重要,但審查機制背後的隱私問題也受到質疑。Apple在去年推出了保護兒童的計畫(Child Safety Plan),Apple 會在用戶上傳照片至 iCloud 前進行審查,方式與 Google 相似,如果雜湊值與已知的 CSAM 照片相符,則會轉由人工審查,來判定是否有需要鎖定該帳號。
計畫推出後提倡數位權益的非營利組織 The Electronic Frontier Foundation(EFF)指出,這危害到了 iCloud 使用者的權益。Apple 也因此暫緩了計畫,但隨著 iOS 15.2 的推出,Apple 讓父母得以選擇,是否在家庭共享計畫的兒童帳號中加入照片審查機制,若父母同意則小孩帳號的「訊息」App 將審查裡面的照片是否有裸露元素,若有審查到 Apple 則會將照片模糊化,並提出警訊以及提供可以協助網路安全的資源。
而對於 Google 此次事件,EFF 的 Jon callas 認為這樣審查功能是侵犯權益的,他表示用戶擔心的就是帳號中的家庭相簿被審查後惹上麻煩。
Google寧可錯殺也不放過?
在台灣的一位用戶也發生類似於 Mark 的情況,他懷疑因自己的雲端硬碟存放衛教文章所需的兒童生殖器照片,而受到 Google 審查,進而造成帳號被無預警的停用。他也警告帳號遭停用後不僅 email 和存在 Chrome 裡的密碼不能使用,而造成後續麻煩外,任何一次性付費的 Google App 也需重新購買,甚至他的 Youtube Premium 帳號在被停用後仍持續被扣款。
Google 的照片審查的確曾有效阻止了犯罪事件,但對於要將私密照片用於正當醫療用途上的使用者,只要出現了審查錯誤,即會讓用戶的使用權益收到侵害,也容易讓用戶難以再次信任公司所提供的服務。