是不是同志 看臉就知道 史丹佛AI研究惹議

by:徽徽
7019

隨著科技的進步,人工智慧的應用越來越廣,也讓我們的生活越來越方便,不過當人工智慧技術侵入了私人領域時,掀起的驚濤巨浪令人開始反思科技到底該怎麼使用,人類的底線究竟在哪裡。最近,史丹佛大學發表了一份用人工智慧技術來辨認誰是同志的研究,就引起軒然大波。

post title

一名女子將支持LGBT族群的彩虹旗畫在自己的臉上。近日,史丹佛大學利用人臉辨識技術找出誰是同志的研究,引起軒然大波。

路透社

用AI辨識同志臉  

近日,史丹佛大學的研究人員在《性格與社會心理學期刊》發表了一份研究,描述他們如何成功利用人工智慧技術辨識出照片中的主角是不是同志。然而這份研究一公布,馬上受到LGBTQ團體排山倒海而來的批評,他們砲轟這份研究是「垃圾科學」,且批評這份研究缺乏代表性,不僅展現了種族歧視還將一個人的性向二元化,整份研究「危險又充滿缺陷」。

目的不在判別同志

面對外界的批評,研究人員表示這是LGBTQ團體的「膝蓋反應」,他們的目的並非要判別誰是同志,而是要大家小心人工智慧的力量。

post title

史丹佛研究人員從美國受歡迎的約會網站取得照片,再透過人工智慧技術去捕捉照片中主角的臉部細微特徵,藉此判斷對方是不是同志。

Photo: Michel Mauquoi

從約會網站上拿照片

回到這份充滿爭議的研究,史丹佛大學心理學家柯辛斯基(Michal Kosinski)博士和電腦科學碩士王以倫(音譯,Yilun Wang)合作,從一個受歡迎的美國約會網站上拿到了 1萬4,776名使用者公開的照片共 3萬5,326張。隨後,他們利用「深層神經網絡」和臉部辨識技術訓練演算法去偵測照片中主角臉部的細微特徵。

男同志的下巴較窄

在其中一項實驗中,研究人員拿兩張照片供演算法辨識,最後發現演算法可以辨識出誰是男同志,且成功率高達 81%。在女性方面,成功率則是 71%。研究人員表示:「同志的臉往往長得和性別典型相反,男同志的下巴較窄,且鼻子較長,女同志的下巴則比較大。」

並非所有情況都成功

不過,這套演算法並非在所有情況下都可以有這麼高的成功辨識率。在另一項實驗中,研究人員要演算法挑選 100名「最有可能是同志」的男性,但演算法最後錯失了 23人。

還是比人類厲害

無論如何,人工智慧都比人類還厲害。一般人平均在辨識男性性向上只有 61%的成功率,女性方面則是 54%。

post title

研究人員用來供人工智慧分析臉部特徵的照片,全部是取用自美國受歡迎的約會網站。

路透社

研究限制:白人、性向二元化

報導中提到,這份用人工智慧技術辨識同志的研究,是該領域第一份這麼做的研究,自然也出現了許多限制。舉例來說,研究中的照片以白人為主,且研究人員拿的是約會網站上的照片,這些照片本來就比較可能顯露主角的性向。

再者,研究中的性向兩極化,只有同志和異性戀兩種,不足以代表LGBTQ族群。

住在美國  年齡低於40歲  

沒有參與研究的英國法爾茅斯大學人工智慧研究員庫克(Michael Cook)說:「(這份研究中的)每個人年齡都低於 40歲、住在美國,而且願意把自己和喜好公布在網站上。」

「這群人可能和不同年齡層、不同國家、不同戀愛狀況下的人相比非常不一樣。」

post title

在對LGBT族群不友善的俄國,無畏歧視的LGBT分子高舉彩虹旗上街遊行。

路透社

簡化性向光譜

此外,庫克補充道,研究人員收集到的性向是基於這群使用者在約會網站上說他們想要找「男性」或是「女性」:「這麼做大大簡化了人們現實生活中的性別和性向光譜,這也代表去除了諸如雙性戀、無性戀,還有不確定自己的性向與尚未出櫃者的資訊。」

這份研究「很危險」  威脅LGBT的權利

英國公益組織「隱私國際」(Privacy International)技術官帕勒登魯本(Dana Polatin-Reuben)直指這份研究「很危險」,因為研究聲稱的辨識準確度「威脅到LGBT族群的權利,在許多情況下,也威脅到了那些活在壓迫中的LGBT族群的生活」。

「這份研究暗中假設性向的僵化和性別的二元化,排除了那些非二元化的性別認同或性向。」

post title

圖為史丹佛大學校園一景。HRC研究主任約翰遜表示,史丹佛大學應該和這樣的垃圾科學保持距離。

Photo: Michael Camilleri

研究遭批不是科學

美國兩大LGBT人權團體Glaad和HRC也公開發表聯合聲明,嚴詞抨擊這份研究。

Glaad首席數位官哈洛倫(Jim Halloran)說:「這份研究不是科學也不是新聞,不過描述了約會網站上的美感標準,忽略了LGBTQ族群的巨大劃分,也忽略了非白人、變性人、老人和其他不想把照片上傳到約會網站上的LGBTQ族群。」

「這種魯莽的研究可以做為一種武器,傷害異性戀和那些深陷出櫃危險狀況的同志。」

警告史丹佛  和垃圾科學保持距離

HRC研究主任約翰遜(Ashland Johnson)表示,他們在好幾個月前就已經警告過史丹佛大學。約翰遜說:「史丹佛大學應該和這樣的垃圾科學保持距離,而非把他們自己的名聲和信譽借給這種有危險缺陷,並且讓全球比先前變得更糟和更不安全的研究。」

post title

在遭到各界抨擊後,研究人員出面解釋,為何透過人臉辨識技術可以判別一個人的性向,這要從胎兒在子宮中的發育講起。

路透社

只有科學可以反駁科學

面對各界的攻擊和質疑,研究人員批評這些指控「太早下判斷」。他們在聲明中寫到:「我們的發現有可能是錯的...但是,唯有科學數據和複製可以反駁科學發現,而不是一群缺乏科學訓練的有心律師和傳播人士。」

「無論如何,如果我們的結果是正確的,Glaad和HRC的代表膝蓋反射般地駁斥科學發現,才會讓這些組織努力去擁護的那群人陷入危險。」

為何可從臉部看性向?

研究人員也解釋到,為何人工智慧技術捕捉到的臉部細微特徵,可以辨識出一個人的性向。

隨著胎兒在子宮中發育,他們會處於各式各樣的賀爾蒙中,尤其是睪酮,這些賀爾蒙在型塑臉部上扮演關鍵角色,對一個人的性向也有影響。研究人員認為他們的技術可以透過前者捕捉後者的細微訊號。經由其他技術的配合,研究人員在決定男性的性向上會將注意力集中在鼻子、眼睛、眉毛、臉頰、髮線和下巴,女性方面則是關注鼻子、嘴角、頭髮和脖子的線條。

post title

除了這次的研究,史丹佛大學心理學家柯辛斯基博士先前利用Facebook的數據設計的心理測驗,也受到大眾的關注與檢視。

路透社

過去也有爭議研究

其實,柯辛斯基博士過去的研究也充滿爭議,他曾經利用Facebook的數據設計了一個心理測驗,依靠Facebook用戶的檔案去偵測用戶的性格。去年,美國總統川普(Donald Trump)的競選團隊也利用類似的技術鎖定選民,引起不少爭議。

警告決策者  科技的力量很強大

無論如何,研究人員表示他們之所以做這樣的研究,目的不在辨識同志,而在展現科技的力量,藉此警告決策者這種力量有多強大,未來將不可避免地侵犯個人隱私。


延伸閱讀: 《「幫你確認兒子是不是同志」法國監控軟體公司惹議
被錄下同志性行為 印尼兩男子遭公開鞭刑
研究:和同志對話讓人更美好

參考資料:
01 Advances in AI are used to spot signs of sexuality
02 Row over AI that 'identifies gay faces'
03 Everything that's wrong with that study which used AI to 'identify sexual orientation'

 

加入好友

分享:

  分享這篇文章