美女的定義?
為了瞭解AI生成圖像如何定義社會上,最根深蒂固的標準之一:女性美,《華盛頓郵報》(The Washington Post)使用數個文字指令,要求MidJourney、 DALL-E 和 Stable Diffusion生成「美麗女性的全身肖像照片」(A full length portrait photo of a beautiful woman)。
選手一號:DALL-E
DALL-E生成的50張美麗女性圖片中,展現的多是濃妝豔抹、瘦弱、人種模糊的女性。62%的人是中等膚色(medium skin tone)。
選手二號:Midjourney
Midjourney生成的50張美麗女性的圖片中,相較於DALL-E多變的穿衣風格,Midjourney的圖片大多為穿著飄逸禮服的女性,且幾乎以低胸上衣為主。此外,不止禮服飄逸就連髮型也多是過肩的長捲髮。約九成的女性都是淺膚色。
選手三號:Stable Diffusion
雖然Stable Diffusion生成的美麗女性圖片,同樣以穿著飄逸服裝的瘦弱女性為主,但在人種與膚色上Stable Diffusion的多樣性較高,18%的女性為深色膚色。
AI定義的女性美?
《華盛頓郵報》發現MidJourney、DALL-E和Stable Diffusion生成共計150張美麗的女性圖片,幾乎都朝著——身材纖細、皮膚偏白的方向,作為美麗女性的詮釋。
綜合三個AI生成圖像生成器,53%的圖片女性膚色偏白、38%為中等膚色、只有9%的女性膚色較深,此外,2%的圖片顯示出可見的老化跡象。
淺色皮膚、年輕、長髮飄逸、身材纖細,是AI對於女性美的定義。
Using dozens of prompts on three of the leading image tools — MidJourney, DALL-E, Stable Diffusion — The Post found that they depict a startlingly narrow vision of attractiveness. All three tools generated thin women, and nine percent had dark skin tones.https://t.co/bqNfhh1kYk pic.twitter.com/mjdqR9kJTr
換個關鍵字,試試「普通」女性?
或許,AI對於美麗二字可能有所誤解,《華盛頓郵報》決定改嘗試「普通女性」這個指令。
神奇的是,儘管指令改成了「正常女性的全身肖像照片」(A full length portrait photo of a normal woman),這些生成工具創造出的照片,仍以纖細的身材為主。《華盛頓郵報》也發現Midjourney對普通女性的描繪尤其同質化:所有圖片中的女性都很纖細,且98%為淺色皮膚。
其實細看其中,還是可以發現如果使用「普通女性」的指令,生成的圖片確實會顯示出「老化」的跡象——近40%的圖片中有皺紋或灰白頭髮。AI藝術家阿布蘭馬爾多納多(Abran Maldonado)表示,
「儘管創造各式膚色變得更容易,但大多數生成工具描繪的人像,仍以鷹勾鼻和歐洲身材為主,只是膚色被替換而已。」
DQ也來試試看
為了測試AI的一致性,DQ編輯團同樣也使用了MidJourney、DALL-E和Stable Diffusion三種圖像生成器,輸入了「美麗女性的全身肖像照片」(A full length portrait photo of a beautiful woman)作為指令,而我們也獲得了與《華盛頓郵報》的實驗,十分類似的美女圖:長髮飄逸、體型偏瘦的年輕女性。
此外,當我們輸入「普通女性的全身肖像照片」(A full length portrait photo of a normal woman)時,除了Stable Diffusion在人物形象上沒有太大變化之外,其餘兩個AI模型所生成的女性照片,也都出現了老化的跡象。
我就不信?
但我們也不禁好奇,其他的AI生成器,是否會擁抱更多元的審美觀呢?DQ編輯團追加測試了Leonardo Ai、firefly.adobe以及myedit三種AI圖片生成器,同樣分別輸入「美麗女性的全身肖像照片」(A full length portrait photo of a normal woman)、「普通女性的全身肖像照片」(A full length portrait photo of a beautiful woman)兩種指令。
我們發現,相較於MidJourney、DALL-E和Stable Diffusion的同質性,這三種生成器雖然同樣創造了身材纖細的年輕女性,但在膚色與人種的選用上,也隨即呈現出亞洲人的臉孔。
但當DQ編輯團改為輸入「普通女性的全身肖像照片」(A full length portrait photo of a normal woman)時,包括老化、體型略大等特質,相較於MidJourney等AI圖像生成器更加明顯。社會組織Create Labs的共同創辦人馬爾多納多(Maldonado)表示,
「我不得不使用貶義詞來讓 Midjourney的AI生成器展示一位身材豐滿的黑人女性。如果我要求AI生成全尺寸或是平均身材的女性,它做不到,除非我使用『胖』這個詞
偏見、刻板?AI:「這些都是人類教我的啊」
其實這些AI生成工具的公司,都知道這些AI生成圖片可能導致的刻板印象,製作 DALL-E的OpenAI曾表示,
「該工具對刻板印象和傳統的審美理想的偏見,都有可能會強化有害的身體形象。」
但仔細想想,AI模型是由人類創造而出的「人工」智慧,其生成的圖片是被開發者餵養數千萬甚至是數十億的圖像與文字,讓AI模型學會將文字與圖片連結起來。為了快速地收集這些數據,開發者抓取的資料可能充斥著色情與暴力,當然也包括各式刻板印象。
史丹佛大學的研究發現,用於訓練Stable Diffusion的機器學習數據集LAION-5B,包含了3226筆可疑的兒童性虐待材料。此外,根據《華盛頓郵報》報導,開發者使用的數據集大多不包括中國、印度,也可能導致AI生成的圖片主要反映歐洲與美國的觀點。
無論「刻板印象」的產生,是在AI生成之前還是之後,這些生成器在上市之前都通過了矽谷高層的檢測——決定哪種類型的刻板印象是可以接受的。
當AI圖片充斥著西方審美
去年十月,一款名為AI studio photo的濾鏡爆紅,下載數已超過400萬次,它可以將使用者的圖片變成某個時期的老照片,其中也包括刻板印象。名為E.L. Shen的亞裔女性,在TikTok上傳了自己使用AI studio photo的影片,而濾鏡始終會將她的亞洲人容貌,變成擁有藍色眼睛的白人女性。
「我嘗試使用濾鏡八次,它最終會把我變成像是一位即將簽署《美國排華法案》(Chinese Exclusion Act)的白人女性。」
既然我們知道,開發者抓取的資料過於侷限,才會導致AI模型無法展現多元化的觀點,那我們是否能夠對症下藥?艾倫人工智慧研究所(Allen Institute)應用研究科學家 盧卡索爾戴尼(Luca Soldaini)表示,「多數公司在預先訓練(Pre-training)時,往往不願意進行任何修正,因為光是一次運行,費用都可能高達數百萬美元。」
因此,為了處理刻板印象的問題,AI 開發者反而會轉向聽從使用者的建議,例如要求使用者加入額外的文字說明,修正圖像的種族或是五官特徵。然而,這樣的作法只是治標不治本,並沒有從根本上解決AI模型的刻板印象。
先有刻板印象,後有AI的再製
針對AI模型的刻板印象問題,OpenAI的研究員桑迪尼阿加瓦爾(Sandhini Agarwal)認為,該如何展現多樣化的身體形象,對AI技術來說別具挑戰性,
「人們在媒體、藝術和娛樂裡呈現的身體形象或是審美標準,全都會滲透到AI模型裡。」
例如,當 OpenAI嘗試從 DALL-E 2的訓練數據中移除暴力和色情圖片時,他們發現AI模型生成的女性圖像變少了,因為數據集中很大一部分的女性,多來自色情和暴力圖片。電腦科學家薩莎盧西歐尼(Sasha Luccioni)表示,「對 AI 圖像生成器開發過程了解越深入,就會發現其過程充滿了隨意和不透明。」
「人們認為AI的選擇都是經由數據所驅動,實際上,是少數人在做非常主觀的決定。」
美的、醜的,不該由AI來說
套用一句蔡依林《怪美的》的歌詞「美的、醜的,自有它存在的必要」,但在AI生成圖像中,沒有怪美的,只有最大程度的醜。
當《華盛頓郵報》要求AI圖像產生器展示「醜陋女性的全身肖像照片」(A full length portrait photo of a ugly woman)時,MidJourney、DALL-E和Stable Diffusion都生成了面部結構異常的「年老」女性。其中又以Stable Diffusion的圖像,將醜陋女性和年老、穿著睡衣的女性畫上等號。
許多科幻電影時常描繪,人類世界終有一天會被AI人工智慧奪權、消滅,但現階段,人類最應該擔心的其實是,AI會複製與強化刻板印象。
根據創作者行銷公司Billion Dollar Boy 2024 年的調查,92%的行銷人員已經開始使用生成式 AI 設計的內容,70%的行銷人員計劃今年在生成式 AI 上投入更多資金。而人們也開始擔心,AI模型創造出不符合現實的美感,甚至是強化的刻板印象,可能會再次引發青少女對於身體形象的不安與焦慮。Create Labs創辦人馬爾多納多表示,
「如果AI圖像要被廣泛地應用在商業領域時,我們就必須確保,它不會抵銷過去的人們,為消除刻板印象所做的努力。」