每按一下快門,就有一人受害 藝術家打造AI深偽相機,盼大眾正視假裸照風險

本文經授權轉載自友站Inside硬塞的網路趨勢觀察文/ Mia 

地球一瞬,世界各地正發生這些大小事。

註:本文為單一事件快訊報導,非深度文章

文章插圖

隨著人工智慧技術的不斷發展,我們正進入一個新時代,其中一項重大議題,就是對於AI生成裸體圖像的擔憂。

最近,一個名為「NUCA相機」的專案,引發了人們對這類議題關注,它是一台可以在10秒內自動製作任何人裸照的相機。雖然創作者宣稱這是藝術專案,但它仍引發了對人工智慧的潛力、共識和演算法公平性的討論,同時也凸顯了人工智慧生成圖像的社會影響。

任何人的裸照都能一鍵解鎖

NUCA相機是由韋夫(Mathias Vef)和格羅斯(Benedikt Groß)創作的一個「推測性設計和藝術專案」,它能夠在10秒內,自動產生任何拍攝到的人脫光的照片。

它直觀地揭開了自2019年以來,人工智慧「脫衣」 應用猖獗的事實——透過AI,能夠輕而易舉地合成任何人的裸照

NUCA相機的原理相當簡單,它使用「Stable Diffusion」AI圖像生成器,根據從相機拍攝的照片中並加上指令,生成裸體的圖像。這些生成的圖像可能與現實相去甚遠,但它們通常還蠻有說服力的,這就引發了人們對個人隱私和虛擬身份的關注。

文章插圖

盼讓大眾正視AI的風險

對於NUCA專案的創作者來說,這並不僅是技術展示,而是對於人工智慧如何影響社會的反思。

他們希望透過這個專案,引發人們對於個人隱私、同意和演算法公平性的討論,並探討人工智慧生成圖像的社會影響。這種對話將有助於塑造未來人工智慧技術的發展方向,確保這些技術能夠真正服務大眾利益。

通常,絕大多數受到攻擊的人是女性,她們的隱私受到侵犯,而擅自製作裸體圖像的人卻是匿名的。而這項藝術專案透過相機將整個過程簡化,並將創造圖像的人與被AI脫衣的人放在同一個房間裡。

儘管韋夫和格羅斯的出發點是好意,盼喚醒大眾對議題的重視,但他們是否擔心提出這個想法?格羅斯表示:

「我們並沒有將細節公開。而透過將被攝影者和被攝者的人結合在一起,我們在同一個空間裡進行了非常有趣的對話,我認為這可能是最有價值的一點。」

NUCA專案的出現提出了一個重要的問題,即人工智慧技術在生成裸體圖像方面的潛在應用和風險。這不僅是一個技術問題,更是一個社會問題,需要眾人共同努力來解決。透過加強對這些技術的監管和法律規定,希望可以確保人工智慧技術能夠真正促進公益,而不是造成威脅。