無人駕駛車該怎麼辦?
當駕駛在開車時,如果發現前方路口有行人闖紅燈,這時候駕駛可以選擇是否要急踩煞車,禮讓行人過馬路。但如果今天是一輛自動駕駛車,它不像人類可以緊急應變,這時候自動駕駛車到底該怎麼做?
MIT的「道德機器」
為了要讓自動駕駛車上的人工智慧(AI)在未來上路時,能做出正確的道德判斷,2014年,美國麻省理工學院(MIT)設計了一部「道德機器」(Moral Machine),來蒐集各國網友在各種情境下的道德判斷方式。
該直走,還是變換車道?
MIT的「道德機器」一次測驗會隨機出現 13題,每一題都有 2個選項,受試者可以選擇要讓自動駕駛車往前開或轉向另一個車道。有些情況是讓車內乘客死亡,有些則是直接撞上正在過馬路的行人或動物。
因為是自動駕駛車,所以車內乘客有可能是人,也可能是動物。在斑馬線上行走的行人或動物,也有可能沒有遵守交通號誌的指示。
另外,在題目設計上,車內乘客或在路上行走的人也有老人、小孩、流浪漢、過重的人等差異。
你偏好救/撞哪一種人?
「道德機器」會按照這 13題的回答結果分析 9種情況: 你會選擇拯救更多人還是撞死多一點人、你會選擇保護車內乘客還是不會、你重不重視交通規則、你會不會避免介入、減少變換車道?、你偏好撞男性還是女性、你偏好撞人類還是動物、你偏好撞年輕人還是老人家、你偏好撞胖子還是瘦子、你偏好撞高社經地位還是低社經地位的人。
在做完 13題「道德機器」的問題之後,現在受試者在「道德機器」網站上可以看到自己的回答結果,和世界平均值的差異。
願意救人類而不是動物
最近,MIT在《自然》(Nature)期刊上發表了 4年來統計出來的資料結果,有世界各地來自 233個國家或地區的網友們,在「道德機器」上做出了 3,960萬次的道德判斷。
結果發現,多數人更願意拯救人類而不是動物、希望能盡可能救到越多生命、比較偏好拯救年輕人而不是老人家。
至於性別偏好、胖瘦與否、該保護車內乘客還是路人、是否該變換車道或避免介入,則沒有太多的差異。
無關個人立場 因國情有別
另外,在「道德機器」13道情境題的最後,受試者可以選填年齡、性別、政治立場和宗教信仰,MIT分析的結果發現,上述這些都和受試者做出選擇時沒有太多關聯。
不過,MIT研究團隊發現,各國網友們所做的決定,確實存在一些文化差異。例如:法國人最在乎有多少人會因此而死,但日本人相對來說最不在意死亡人數。
道德偏好有三類
MIT研究團隊發現,世界各國的道德偏好可以分成三大類:第一種是以基督宗教為大宗的北美、歐洲等「西方國家」(Western),第二種是以佛教、儒家、伊斯蘭教為主的「東方國家」(Eastern),最後一種則是中南美洲、法國和前法國殖民地,MIT將第三種稱為「南方國家」(Southern)。
東方人比較會救弱勢
舉例來說,「南方國家」和西方國家比起東方國家,更傾向於犧牲年長者拯救年輕人,以及犧牲低社經地位、拯救高社經地位的人。在這兩個例子裡面,「南方國家」偏好拯救高社經地位或年輕人的比率,又比西方國家來得高。
「南方國家」在拯救女性、瘦子的比率,相較於東、西方國家也特別突出。而像美國、加拿大、挪威和德國等西方國家,更傾向於不干涉自動駕駛車的駕駛方向,讓車子繼續往前開。
經濟水準的好壞也有差
另外,MIT研究團隊注意到,一個國家社會、經濟水準的好壞,也會影響到受試者的道德判斷。像是來自芬蘭、日本的網友,更在乎行人是否有遵守交通號誌;反之,來自奈及利亞、巴基斯坦的人更能接受闖紅燈的行人。
像是在貧富差距很大的哥倫比亞,網友們更傾向於殺死低社經地位的人,但對比貧富差距較小的芬蘭,網友在選擇上就不會產生這樣的差異。
20-30歲、讀過大學、男性
MIT研究團隊也坦承,「道德機器」的研究結果可能會有所偏差,因為所有的受試者能夠自己選擇是否要做題目,這會更容易吸引到有網路、高社經地位、對自動駕駛車有興趣的人來作答。
特別是在網路較不普及的國家,更有可能會蒐集到高社經地位的網友。MIT在論文中寫道:「大多數『道德機器』的受試者都是男性、讀過大學、年紀介在 20、30多歲。」
不符合真實情況
沒有參與這項研究的美國南卡羅來納大學(University of South Carolina)法學教授史密斯(Bryant Walker Smith)質疑,「道德機器」的研究太不切實際,因為在現實情況下很少有駕駛會需要在兩種類型的情況當中做選擇。
自動駕駛車分不出來
也有一派人認為,現今自動駕駛車的感應器沒有辦法分辨前方的物體是車子還是堅固的牆壁,更不用說要判斷前方行人社經地位是好是壞,距離「道德機器」的情境設計上,自動駕駛車技術還有很長一段路要走。
致命的微小道德判斷
面對上述質疑,MIT研究團隊表示,「道德機器」的情境反映出人類司機在日常上做出的道德判斷。例如,一名駕駛在山區行進時,為了要閃避腳踏車騎士,很有可能會撞上對向來車,這些人類司機做的微小道德判斷,有時很有可能是致命的。
沒有全球通用的道德標準
這份研究的共同作者MIT電腦科學家拉萬(Iyad Rahwan)說:「對於那些認為可以找出一套提供給機器人的完美機器倫理法則的人來說,這次我們的數據顯示出(道德)沒有全球通用的準則。」
MIT研究團隊希望,這次的調查結果能讓各國政府、自動駕駛車製造商注意到,自動駕駛車在設計上必須要考慮到各國文化上的不同。
告訴政府和車廠道德偏好
MIT研究團隊表示:「在人類歷史上,我們從來沒有允許任何一部機器能夠在幾分之一秒內、不用在真實世界的指導下自動決定誰該活下、誰該死亡。」
「在我們允許車子做出道德判斷之前,我們需要展開一次全球性的對話,告訴設計道德演算法的公司和政策決策者我們的偏好。」
註:部分圖片經© The Moral Machine team: Edmond Awad, Sohan Dsouza, Azim Shariff, Jean-François Bonnefon, Iyad Rahwan授權使用,未經同意禁止轉載。