打擊deepfake有新招:老鼠

在對抗deepfake影片的這條路上,我們出現了新的夥伴:老鼠。

文章插圖

打擊deepfake影片  發現得力夥伴

隨著機器深度學習和人工智慧技術越來越先進,連帶製作deepfake影片也越來越容易,在這場對抗deepfake影片的大戰中,研究人員發現了新的助攻手:老鼠。

訓練老鼠辨識語音

近日,美國奧勒岡大學神經科學研究所的研究團隊表示,他們正在訓練老鼠辨識語音中的不規則,希望借助同為哺乳類的老鼠進一步破解deepfake影片。研究團隊表示,他們的最終目的是希望能藉此幫助Facebook和YouTube打擊deepfake影片,讓這些影片不要在網路上瘋傳。

小補充:什麼是deepfake?

deepfake是一種非常方便的「影片換臉」AI技術,它會在分析目標對象各個角度的大量照片後,再透過演算法製造出目標對象的各種表情,藉此和影片中某個角色的面部表情完全契合,在影像合成後,乍看之下就像目標對象真的參與了影片演出,而由該技術製成的影片就會被稱為「deepfake」。

上面這支影片就是一支deepfake影片,製作團隊讓Facebook創辦人馬克祖克伯(Mark Zuckerberg)說出他不曾說過的話,然而乍看之下根本真假難辨。

同為哺乳類  很有希望成功

帶領研究的心理系博士生桑德斯(Jonathan Saunders)說:「我們認為在研究複雜的聲音處理過程上,老鼠是一個很有希望成功的模範。」

「研究哺乳動物聽覺系統偵測假聲音的運算機制,可以讓下一個世代知道偵測欺騙的通用演算法。」

不會被字義迷惑

換句話說,老鼠的聽覺系統和人類很像,但牠們不懂字詞的意思,這一點在偵測假言論上是一大優點,因為如此一來,老鼠就不會被字義給迷惑,而能專心在不同的聲音上。    

第一步:辨別buh和guh發音

桑德斯解釋到,研究團隊會先訓練老鼠去辨別一小組音位(phoneme),也就是人類語言中能夠區別意義的最小聲音單位。

「我們會教老鼠在一堆被不同母音包圍的背景中,去辨別buh和guh發音的不同,所以牠們知道boe、bih和bah有何不同,這些都是我們向來視為理所當然的不同之處。」

「正因為牠們學得會這種複雜的語音分類,我們認為訓練牠們偵測真假言論是可行的。」

文章插圖

忽略發音的小小不同

舉例來說,在deepfake影片中,可能會出現小小的錯誤,像是原本應該是g聲的地方變成了b,讓hamburger的發音變成了hamburber。人們有可能會因為理解字詞的關係,沒有注意到上述發音的小小不同,但老鼠卻可以聽出來,且成功率有 80%。

目的在了解老鼠腦部活動

研究人員表示,雖然 80%的成功率事實上低於人類辨識deepfake語音的 90%成功率,但研究人員的重點不在訓練一批辨識deepfake語音的老鼠大軍,而是藉由老鼠在辨識真假語音的過程中,透過監控老鼠的腦部活動來了解大腦是怎麼辨別真假言論的。最後,研究人員希望能將從老鼠身上獲得的洞察,進一步去訓練可以偵測真假言論的新型演算法。

「雖然我覺得一群老鼠在房間內偵測YouTube上的假音頻真的很可愛,但很明顯的,我不認為這麼做夠實際。」研究人員桑德斯說。

文章插圖

燈光不一致、主角不眨眼

關於deepfake影片的討論,也出現在今年於美國拉斯維加斯召開的黑帽大會(Black Hat)和全球資安大會Def Con上。

來自美國馬里蘭州巴爾的摩網路安全公司Zerofox的工程師普萊斯(Matthew Price),就分享了他辨別deepfake影片的方法,像是他會利用演算法去偵測影片中主角不正常的頭部運動,或是影片中不一致的燈光。其中,做得爛的deepfake影片往往主角都不會眨眼。

技術進步,真假難辨

但是,隨著技術越來越先進,這種顯而易見的錯誤很快就會被修正,deepfake影片會越來越真假難辨。

普萊斯表示:「我認為隨著這項技術不斷進步,我們更難去察覺作假的地方。」而deepfake影片很有可能被用在操弄美國 2020總統大選上。

文章插圖

讓假訊息如虎添翼

對美國政治人物來說,deepfake影片的出現讓瞄準選民的假訊息工作如虎添翼。

從假圖像到假影片

今年稍早,美國共和黨參議員魯比歐(Marco Rubio)曾說:「美國的敵人早就在用假圖像在人民心中埋下不滿的種子,並且分裂我們。」

「現在,讓我們想像一下,一支內容是選票被偷、政治領袖愚蠢評論或是無辜平民在海外衝突中被殺害的(假)影片,這支影片的力量(有多大)。」

《華盛頓郵報》在影片中將美國眾議院議長裴洛西的真假影片並列。其中,裴洛西的造假影片已經在網路上瘋傳,並且觀看次數已經破百萬。

就算造假,照樣有人分享

雖然有不少人很擔心deepfake影片對社會帶來的不良影響,但也有人提出deepfake影片帶來的威脅有點被誇大了。

美國哈佛甘迺迪學院資安專家施奈爾(Bruce Schneier)表示,人們花在偵測deepfake影片上的努力完全搞錯了重點。

「那些被分享的假東西...作假的部分根本一點也不小,但它們還是照樣被分享不是嗎?」

「問題不在假東西的品質,問題在我們不信任合法的新聞來源,還有我們為了社會認同在分享這些東西。」

議長喝醉酒?先分享再說

施奈爾舉例到,最近網路上瘋傳一支美國眾議院議長裴洛西(Nancy Pelosi)的影片。在影片中,裴洛西的聲音被調過,聽起來就像她喝醉酒一樣。這支影片迅速被證實是一支作假的影片,然而這並不影響這支影片觀看次數破百萬。

根本不是deepfake,而是cheap fake

施奈爾說:「這根本不能說是deepfake影片,而是廉價的假影片(cheap fake)。」

「只要人們不以『這是真的嗎?』這樣的角度去看影片,而是以『這符合我的世界觀』的角度去看,那麼他們就會去分享這支影片...因為那就是他們。」

文章插圖

我們為您在DQ飛行船預留了VIP位子,期待您登船贊助DQ