打擊兒童色情 Apple將自動過濾用戶裝置內的照片

by:阿雀
9075

上周四,Apple宣布了其作業系統「iOS」和「iPadOS」的更新細節。其中,為了打擊兒童色情的自動過濾照片功能引發了爭議——這到底是合理的管制,還是侵犯隱私呢?

post title

Apple宣布旗下作業系統將引入自動掃描有無兒童色情照片的功能。

Photo: Jakob Owens

自動檢測有無兒童色情圖片

上周四(5),Apple宣布旗下作業系統,即iPhone使用的「iOS」和iPad使用的「iPadOS」,兩者在未來的更新細節。

然而,美國地區的版本中,有一項自動掃描照片的功能卻引發了爭議——Apple將引入名為「neuralMatch」的工具,讓「neuralMatch」檢測用戶裝置內有沒有任何已知的兒童色情圖片。

這項技術讓許多人產生質疑,這究竟是一項合理的管制手段,還是其實已經侵犯到用戶的隱私了呢?

註:針對兒童色情相關內容,英文有一專有名詞為「child sexual abuse material」,縮寫為「CSAM」,直譯即「兒童性虐待材料」,但本文將以「兒童色情」或「兒童色情照片」簡稱之。

以人工的方式進行雙重確認

在iPhone和iPad內建「neuralMatch」後,當用戶的照片要自動儲存至Apple的雲端系統前,這項工具會自動對檔案進行檢測,確認其中有沒有任何內容與已知的兒童色情照片吻合。

如果出現一定數量的吻合結果,系統將自動回報結果,Apple則會以人工的方式進行雙重確認,如果真的是兒童色情照片,它們將封鎖該用戶,並通報執法單位。

post title

Apple強調起其他現有的技術,「neuralMatch」將能提供「極大」的隱私。

路透社/達志影像

與資料庫中的照片進行比對

Apple表示,所謂的「neuralMatch」將是「新的密碼學(cryptography)應用程式,能夠幫助遏止兒童色情在網路上散播,但同時兼顧用戶的隱私」。

它們會和美國國家兒童失蹤與受虐兒童援助中心(National Center for Missing and Exploited Children),以及其他兒童安全相關機構的資料庫進行合作,讓用戶的照片與已知的兒童色情照片進行比對。

但這些照片並不是以「照片」的形式執行檢測,而是會先被轉譯成「雜湊值」(hashes),是一種通常由隨機字母和數字組成的代碼。

即使編輯過也逃不掉

Apple指出,這項技術甚至可以抓到那些經過編輯的照片,無論是被裁切過、尺寸被調整,又或是從彩色改為黑白,都通通逃不過雜湊值的比對。

而且Apple還強調,這個系統有著「極高的正確率,並確保每年只有不到一兆分之一的機會,會錯誤地標記特定帳戶」;同時,它們還聲稱,若是比起其他現有的技術,「neuralMatch」將能提供「極大」的隱私。

post title

Apple指出,除非裝置裡有兒童色情照片,否則這項功能對一般用戶不會產生任何差別。

Photo: markusspiske

Apple:不會知道用戶裝置裡有什麼

也就是說,只要用戶裝置裡沒有兒童色情照片,Apple就不會知道裡頭的實際內容。

「如果你要儲存一堆與兒童色情相關的照片,對,這對你來說十分糟糕。」Apple負責隱私領域的軟體經理紐恩史溫德(Erik Neuenschwander)表示:「但對其他人來說,這不會產生任何差別。」

「這將打開先例」

但即使Apple立下了如此的保證,還是有專家對此充滿疑慮,擔心這項技術經過擴展後,有朝一日會用來掃描其他禁止的內容,又或是被威權國家利用,作為政治言論審查的工具。

例如約翰·霍普斯金大學(Johns Hopkins University)中,一名專攻資安領域的學者格林(Matthew Green)就表示:「先不管Apple的長期計畫是什麼,它們發出了一個非常確切的訊號:在它們(非常具有影響力的)言論中,建造一個檢測用戶手機有沒有被禁止內容的系統,是一件非常安全的事。」

「它們到底是對或錯根本就不重要。這將打開先例——政府會要求所有人都這麼做。」

post title

Apple還將推出監測小孩有無收到裸露照片的功能。

Photo: freestocks

有心人士利用系統陷害無辜的人?

格林提到:「Apple一直以來都對著全世界兜售自己的隱私功能,這讓大家信任它們的裝置......但現在,它們基本上屈服在了每個政府可能會提出的最糟糕要求之下。我不知道從今以後它們要如何(對政府)說不。」

同時,格林還指出一項隱憂:有心人士可能會利用這個系統陷害無辜的人,寄送看似無害,但實際上經過設計、可以愚弄Apple演算法的照片,並因此觸發通報警告。

監測小孩有沒有收到裸露照片

而且除了檢測兒童色情照片以外,Apple還將開放另一個類似的功能。這只有開啟「家人共享」功能的家庭可以使用,如果家長選擇開啟的話,小孩的iPhone將會監測他們有沒有接收或傳送包含裸露照片的訊息。

如果孩子接收到照片的話,照片會先進行模糊化處理,讓孩子自行選擇要不要查看,但若是低於 13歲的孩子選擇查看的話,家長將會收到系統的特別通知。

Apple表示,它們以保護用戶隱私的方式設計了這項新功能,其中確保了Apple永遠不會看到或發現訊息中的裸露照片,掃瞄功能會在孩子的裝置上直接完成,通知也只會發送到父母的設備中。

post title

資訊工程教授法利德表示,有許多應用程式在提供加密服務的同時也實施保護措施,例如通訊軟體WhatsApp就是一例。

Photo: LoboStudioHamburg

加密的同時還是能識別裡面的內容

但這點讓資安專家格林也十分擔憂,他認為如此的系統可能會被濫用,因為這等於是在向大家表示,Apple可以在加密的情況下,依舊識別出你手機內的特定內容——但在此之前,Apple曾經跟政府宣稱,加密使得它們無法獲得特定數據

「如果其他的政府要求Apple為了別的目的而使用這個系統,這該怎麼辦?」格林問:「Apple應該要說什麼才好?」

然而Apple軟體經理紐恩史溫德駁斥了這些疑問,他表示Apple已經制定了防止系統被濫用的保護措施,而且Apple也會拒絕政府任何的類似要求:「我們會告訴它們,我們並沒有建造出任何它們以為的東西。」

265件與2,030萬件的對比

2019年,《紐約時報》曾發表一項調查報告,揭露了全球性的地下犯罪結構,顯示在立法及各項努力不足的情況下,兒童色情內容出現了爆炸性的增長。

調查中還指出,許多科技公司無法有效監控它們的平台,這等同於幫助那些色情內容被不斷複製和傳播;同時,由於網路分享和下載的便利性,許多內容因此流傳多年,持續為被拍攝到的人帶來創傷和困擾。

事實上,在美國的法律中,科技公司有義務要向當局回報兒童色情案件。但從歷史紀錄來看,Apple的通報案例卻遠遠少於其他公司,例如在美國國家兒童失蹤與受虐兒童援助中心的統計數據中,Apple去年僅回報了 265件案例,但作為對比,Facebook卻回報了 2,030萬件。

而這樣巨大的差距,便是因為Apple向來不願意侵犯用戶的私人領域,對類似的內容進行過濾審查——直到現在,它們似乎終於要越過那道門檻。

post title

美國國國家兒童失蹤與受虐兒童援助中心的總裁兼執行長克拉克認為,Apple的行動或許有助於挽救孩子的性命。

Photo: Ben Wicks

公共安全與用戶隱私的拿捏

但是,對於Apple本次更新的創舉,也不是人人都採取反對的態度,而正向的回饋也顯示出了一點,也就是科技公司必須在協助加強公共安全及確保用戶隱私之間拿捏分寸。

幫助開發早期雜湊函式技術的加州大學伯克利分校(University of California, Berkeley)資訊工程教授法利德(Hany Farid)便表示,Apple的系統確實存在被濫用的可能性。

「是否有可能(被濫用)?當然,但我會擔心這一點嗎?不會。」但法利德指出,目前還有很多應用程式也具有類似的機制,例如WhatsApp雖然有提供使用者端對端的加密措施以保護隱私,可是也同時使用了一個監測惡意軟體的系統,會在用戶收到高風險連結時,警告他們不要點開。

而且法利德還認為,如果是為了兒童安全的話,任何可能產生的風險其實都是值得的:「如果有採取合理的保護措施的話,我認為這是利大於弊的。」

「或許可以挽救孩子的性命」

美國國國家兒童失蹤與受虐兒童援助中心的總裁兼執行長克拉克(John Clark)也讚揚了Apple這次的改變,他在聲明中指出:「Apple擴大了對兒童的保護措施,這改變了遊戲規則......在這麼多人使用Apple產品的情況下,這些新的安全措施或許可以挽救孩子的性命。」

「我們為Apple鼓掌,並期待能夠和它們一起合作,讓這個世界變成一個對兒童來說更加安全的地方。」