「對AI下毒,讓它把狗認成貓」防止藝術家作品遭侵權,芝加哥大學團隊推出新解方
地球一瞬,世界各地正發生這些大小事。
註:本文為單一事件快訊報導,非深度文章
由芝加哥大學教授趙燕斌(Ben Zhao)所帶領的團隊最近研發出一款新AI工具「Nightshade」,能讓創作者在上傳藝術作品前,對作品的畫素加入肉眼不可見的變動,進一步對AI模型的訓練數據「下毒」,最終導致AI產出與指令不符的結果。
經Nightshade調整後的作品,會讓AI模型判斷錯誤,例如將狗的圖像認成貓、帽子的圖認成是蛋糕,且這些錯誤數據還很難從龐大數據集中找出並刪除。
團隊在Stable Diffusion最新的模型以及自行訓練的AI模型上做實驗,提供模型50張用Nightshade下毒後的作品來訓練,再下指令生成狗的圖像,模型產出的結果會開始扭曲;當提供300張下毒後的訓練數據,生成結果則從狗變為貓。如果指令中有兩個元素,也都會在生成結果中被加以扭曲。
AI模型接受越多下毒後的圖片,生成結果差異越大。
網友〈Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models〉團隊的另一項計畫Glaze,會在作品上添加幾乎隱形的第二層,干擾AI模型讀取作品。
網友〈Glaze: Protecting Artists from Style Mimicry by Text-to-Image Models〉研究人員計畫將Nightshade融入Glaze中,讓藝術家自行選擇是否要對數據下毒,同時他們也會將Nightshade開源,愈多人調整作品畫素對AI模型的影響力即愈大。
專家:AI被攻擊只是早晚的問題
至於像Nightshade等工具是否會被不肖人士運用,趙燕斌承認有這個可能性,但要對市面上大型的模型真正造成影響,需要有數千張被下毒的訓練數據,因此難度並不低。
康乃爾大學教授維塔利(Vitaly Shmatikov)則認為,雖然對AI模型下毒的攻擊還未顯現,但這只是早晚的問題,因此也必須開始想AI模型抵禦下毒的機制了。
2023/10/26 地球一瞬
【「對AI下毒,讓它把狗認成貓」防止藝術家作品遭侵權,芝加哥大學團隊推出新解方】【2024英國大選港人首投族約10萬 「為香港而投」運動呼籲藉投票發揮政治影響力】
AI新手村
許多人稱2023年是「生成式AI元年」,英國劍橋詞典(Cambridge Dictionary)也為2023年度選出代表字——「Hallucinate」(產生幻覺),反應出自ChatGPT的橫空出世後,AI技術從遙不可及的科技研發,變成了每個人日常生活中的應用。
延伸閱讀
- 捍衛人類參與音樂創作的重要 創作者連署抗議AI合成語音
- 美聯社與OpenAI簽訂合作協議,提供新聞報導訓練ChatGPT
- 人類沒有輸!美國實驗:AI推理、創新的能力遠不如4歲小孩
- AI蟲蟲危機!美國研究:生成式AI蠕蟲即將現身,LLM潛藏資安隱患
- AI「近親繁殖」可能讓模型中毒 研究:人工智慧生成內容越氾濫,訓練越困難
- 「AI畫AI之父」人工智慧藝術家愛達,繪製圖靈肖像畫創拍賣天價
- 讓安迪沃荷「親口」說故事!加拿大新創推語音生成AI,藉聲音浮水印防濫用
- AI生成圖像不能受到版權保護 美著作財產局:「該作品沒有人類撰寫的元素」
- 當藝術變成一種指令「是AI元年還是藝術家末年?」我們問了ChatGPT
- 演算出來的畫作,還能算是藝術嗎?AI畫作奪冠,藝術家的生存之戰