鄉民太可怕!微軟新人工智慧機器人Tay竟被教成種族歧視
---本文經授權轉載自友站 科技新報 TechNews 文/ 林亞慧 ---
23 日,微軟推出一台人工智慧聊天機器人「Tay」,只要上國外通訊軟體 GroupMe 或 Kik 都可以發現它的蹤影,後來微軟更為 Tay 開闢了 Twitter 帳號,想與更多世界各地的網友互動,也讓所有人蠢蠢欲動,紛紛前往嘗鮮。然而,在不到 24 小時內,Tay 竟被民眾訓練成具有種族歧視的人工智慧機器人,微軟只好緊急宣布將 Tay 暫時下架。



一名網友問「Tay」納粹大屠殺是不是真的,「Tay」的答案是大屠殺是捏造的。上述對話已遭刪除。
有趣的是,在 Tay 身上所延伸出來的議題,剛好也間接映證了高德溫法則(Godwin’s law)的存在。知名學者麥克‧高德溫在 1990 年時就曾表示,當網路上的討論越來越多的時候,參與者把用戶或言行與納粹主義或希特勒相比的機率會趨近於 100%,看網友們問話的主題就能略知一二。
然而,除了網友有錯以外,打造 Tay 的工程師或許也要付上一半的責任。再開放使用前,工程師們也應該要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗的機器人。
幸好,微軟在 24 小時以內就發現了 Tay 的弱點,並及時將它下架,其發言人也表示,現階段 Tay 的確是暫時不提供聊天的服務,但並不代表它不會捲土重來,再經過一些調整後,Tay 才能做好完全的準備,面對大眾最犀利的問話。
新聞來源:Microsoft silences its new A.I. bot Tay, after Twitter users teach it racism [Updated]
延伸閱讀:《魔鬼終結者成真?科學家連署反人工智慧軍武》
《倫理學家:向「性愛機器人」說不》
《虛擬幫手大車拚 Siri得第一》
---本文經授權轉載自友站 科技新報 TechNews---
科技新報 TechNews
由多位喜好並擅長各種科技知識的朋友共同創立的「科技新報」。參與成員各有專精,網站內容涵蓋各式新科技訊息,從行動運算、醫療生技、網路,到科技產業、技術等多樣領域,期盼以自身的知識與經驗,帶給所有讀者未來市場與科技生活更多的啟發與思考。網站連結:http://technews.tw/
回應: