每按一下快門,就有一人受害 藝術家打造AI深偽相機,盼大眾正視假裸照風險
地球一瞬,世界各地正發生這些大小事。
註:本文為單一事件快訊報導,非深度文章
隨著人工智慧技術的不斷發展,我們正進入一個新時代,其中一項重大議題,就是對於AI生成裸體圖像的擔憂。
最近,一個名為「NUCA相機」的專案,引發了人們對這類議題關注,它是一台可以在10秒內自動製作任何人裸照的相機。雖然創作者宣稱這是藝術專案,但它仍引發了對人工智慧的潛力、共識和演算法公平性的討論,同時也凸顯了人工智慧生成圖像的社會影響。
任何人的裸照都能一鍵解鎖
NUCA相機是由韋夫(Mathias Vef)和格羅斯(Benedikt Groß)創作的一個「推測性設計和藝術專案」,它能夠在10秒內,自動產生任何拍攝到的人脫光的照片。
它直觀地揭開了自2019年以來,人工智慧「脫衣」 應用猖獗的事實——透過AI,能夠輕而易舉地合成任何人的裸照。
NUCA相機的原理相當簡單,它使用「Stable Diffusion」AI圖像生成器,根據從相機拍攝的照片中並加上指令,生成裸體的圖像。這些生成的圖像可能與現實相去甚遠,但它們通常還蠻有說服力的,這就引發了人們對個人隱私和虛擬身份的關注。
畫面帶有裸露與血腥內容,請斟酌點閱。
繼續閱讀盼讓大眾正視AI的風險
對於NUCA專案的創作者來說,這並不僅是技術展示,而是對於人工智慧如何影響社會的反思。
他們希望透過這個專案,引發人們對於個人隱私、同意和演算法公平性的討論,並探討人工智慧生成圖像的社會影響。這種對話將有助於塑造未來人工智慧技術的發展方向,確保這些技術能夠真正服務大眾利益。
通常,絕大多數受到攻擊的人是女性,她們的隱私受到侵犯,而擅自製作裸體圖像的人卻是匿名的。而這項藝術專案透過相機將整個過程簡化,並將創造圖像的人與被AI脫衣的人放在同一個房間裡。
儘管韋夫和格羅斯的出發點是好意,盼喚醒大眾對議題的重視,但他們是否擔心提出這個想法?格羅斯表示:
「我們並沒有將細節公開。而透過將被攝影者和被攝者的人結合在一起,我們在同一個空間裡進行了非常有趣的對話,我認為這可能是最有價值的一點。」
NUCA專案的出現提出了一個重要的問題,即人工智慧技術在生成裸體圖像方面的潛在應用和風險。這不僅是一個技術問題,更是一個社會問題,需要眾人共同努力來解決。透過加強對這些技術的監管和法律規定,希望可以確保人工智慧技術能夠真正促進公益,而不是造成威脅。
延伸閱讀
- AI犯罪門檻降低 逾20名西班牙女孩照片遭散播深偽「假裸照」
- 把他人臉孔轉移到色情片上 deepfake「假A片」惹議
- 沒有鏡頭也能拍照!荷蘭藝術家打造AI相機翻轉攝影概念
- 「影片真的不是我!」深偽色情內容犯罪,韓國首爾大學N號房共犯判刑5年
- 義大利總理也受害!AI換臉技術受災頻傳,女性政治人物成Deepfake目標
- 「AI畫AI之父」人工智慧藝術家愛達,繪製圖靈肖像畫創拍賣天價
- 全員AI!南韓人工智慧女團發單曲:我是真的
- 南韓校園AI深偽犯罪 男同學口中的「玩笑」,讓她一口氣失去了春天、夏天與秋天
- Meta上深偽換臉廣告流竄 AI生成不實性影像仍無法可管
- 讓安迪沃荷「親口」說故事!加拿大新創推語音生成AI,藉聲音浮水印防濫用