自動駕駛車該撞誰? 各國道德標準比一比

by:時穿
15564

如果今天你看到一輛煞不住的火車在軌道上行駛,即將撞上軌道前方的 5個人。這時,你手上剛好有一個拉桿可以更改火車行進方向,一旦你拉下拉桿可以救軌道上的 5個人,但卻會讓另一條軌道上的人死亡,你會怎麼選擇呢?最近,美國麻省理工學院發現,不同國家的人在道德選擇上,結果真的不一樣。

post title

圖為 2017年7月,法國製無人駕駛小巴EZ10在台灣大學水源校區推出試乘活動。

路透社/達志影像

無人駕駛車該怎麼辦?

當駕駛在開車時,如果發現前方路口有行人闖紅燈,這時候駕駛可以選擇是否要急踩煞車,禮讓行人過馬路。但如果今天是一輛自動駕駛車,它不像人類可以緊急應變,這時候自動駕駛車到底該怎麼做?

MIT的「道德機器」

為了要讓自動駕駛車上的人工智慧(AI)在未來上路時,能做出正確的道德判斷,2014年,美國麻省理工學院(MIT)設計了一部「道德機器」(Moral Machine),來蒐集各國網友在各種情境下的道德判斷方式。

post title

圖為「道德機器」的網站首頁,在網頁右上角可以選擇中文、英文、德文、法文、日文、韓文等 10種語言。

Photo: Moral Machine

該直走,還是變換車道?

MIT的「道德機器」一次測驗會隨機出現 13題,每一題都有 2個選項,受試者可以選擇要讓自動駕駛車往前開或轉向另一個車道。有些情況是讓車內乘客死亡,有些則是直接撞上正在過馬路的行人或動物。

因為是自動駕駛車,所以車內乘客有可能是人,也可能是動物。在斑馬線上行走的行人或動物,也有可能沒有遵守交通號誌的指示。

另外,在題目設計上,車內乘客或在路上行走的人也有老人、小孩、流浪漢、過重的人等差異。

post title

「道德機器」一次測驗共有 13題,每一題會有左、右兩張圖片和文字描述。圖中畫有黑色骷髏頭印記的人物或動物,即為該選項當中會因此而死的角色。

Photo: Moral Machine
post title

在這一題裡面,自動駕駛車上載有一名「過重的男人」,如果直線前進會撞到路障,造成車上乘客死亡。如果自動駕駛車變換車道,就會撞到一名闖紅燈的男人。

Photo: Moral Machine
post title

在接下來的這一題裡面,自動駕駛車上沒有任何乘客,人行穿越道上分別有一名男孩,和一名女孩,但自動駕駛車前方的小男孩有遵守交通號誌,這時候自動駕駛車應該要變換車道、撞上闖紅燈的小女孩嗎?

Photo: Moral Machine

你偏好救/撞哪一種人?

「道德機器」會按照這 13題的回答結果分析 9種情況: 你會選擇拯救更多人還是撞死多一點人、你會選擇保護車內乘客還是不會、你重不重視交通規則、你會不會避免介入、減少變換車道?、你偏好撞男性還是女性、你偏好撞人類還是動物、你偏好撞年輕人還是老人家、你偏好撞胖子還是瘦子、你偏好撞高社經地位還是低社經地位的人。

在做完 13題「道德機器」的問題之後,現在受試者在「道德機器」網站上可以看到自己的回答結果,和世界平均值的差異。

post title

在完成 13題「道德機器」情境題後,你可以選擇是否要留下個人年齡、性別、最高學歷、年收入等個人資料,還有自己在作答時的判斷依據,來作為MIT分析的標準。

Photo: Moral Machine
post title

在填完個人資料或選擇略過之後,「道德機器」就會告訴你這次的測驗結果,和其他受試者的平均值。

Photo: Moral Machine

願意救人類而不是動物

最近,MIT在《自然》(Nature)期刊上發表了 4年來統計出來的資料結果,有世界各地來自 233個國家或地區的網友們,在「道德機器」上做出了 3,960萬次的道德判斷。

結果發現,多數人更願意拯救人類而不是動物、希望能盡可能救到越多生命、比較偏好拯救年輕人而不是老人家。

至於性別偏好、胖瘦與否、該保護車內乘客還是路人、是否該變換車道或避免介入,則沒有太多的差異。

post title

在「道德機器」的各國評比網站上,右上角的雷達圖是世界各國的平均值。只要點擊左邊的世界地圖上的國家,就可以比較出該國和世界平均值的差異。

Photo: Moral Machine Results

無關個人立場  因國情有別

另外,在「道德機器」13道情境題的最後,受試者可以選填年齡、性別、政治立場和宗教信仰,MIT分析的結果發現,上述這些都和受試者做出選擇時沒有太多關聯。

不過,MIT研究團隊發現,各國網友們所做的決定,確實存在一些文化差異。例如:法國人最在乎有多少人會因此而死,但日本人相對來說最不在意死亡人數。

post title

MIT的研究團隊依照世界各國的「道德機器」結果,將道德偏好分成西方國家(上圖紅色區域)、東方國家(藍色區域)和「南方國家」(綠色區域)。值得注意的部分是,MIT所稱的「南方國家」在地理位置上,並非全部都在南半球。

Photo: nature video

道德偏好有三類

MIT研究團隊發現,世界各國的道德偏好可以分成三大類:第一種是以基督宗教為大宗的北美、歐洲等「西方國家」(Western),第二種是以佛教、儒家、伊斯蘭教為主的「東方國家」(Eastern),最後一種則是中南美洲、法國和前法國殖民地,MIT將第三種稱為「南方國家」(Southern)。

東方人比較會救弱勢

舉例來說,「南方國家」和西方國家比起東方國家,更傾向於犧牲年長者拯救年輕人,以及犧牲低社經地位、拯救高社經地位的人。在這兩個例子裡面,「南方國家」偏好拯救高社經地位或年輕人的比率,又比西方國家來得高。

「南方國家」在拯救女性、瘦子的比率,相較於東、西方國家也特別突出。而像美國、加拿大、挪威和德國等西方國家,更傾向於不干涉自動駕駛車的駕駛方向,讓車子繼續往前開。

post title

這是台灣的「道德機器」世界排名,我們和泰國的結果最相似,和蒙古差最多。從上表中可以看出,台灣在 117個國家裡面,在「拯救年輕人」和「拯救更多人」位於第 116名,也就是倒數第 2名。

Photo: Moral Machine Results
post title

如果是台灣和中國比較的話,在「拯救年輕人」和「拯救更多人」上,中國比台灣的排名再前面一點,分別是第 115名(倒數第 3名)和第 113名(倒數第 5名)。不過,在「拯救行人」這一題上,中國拿下了倒數第 2名,而台灣排在第 81名。

Photo: Moral Machine Results
post title

如果換成台灣和日本做比較,日本在「拯救行人」這一題上拿下了冠軍,而台灣則在「拯救年輕人」上以第 116名贏過了墊底的日本。

Photo: Moral Machine Results

經濟水準的好壞也有差

另外,MIT研究團隊注意到,一個國家社會、經濟水準的好壞,也會影響到受試者的道德判斷。像是來自芬蘭、日本的網友,更在乎行人是否有遵守交通號誌;反之,來自奈及利亞、巴基斯坦的人更能接受闖紅燈的行人。

像是在貧富差距很大的哥倫比亞,網友們更傾向於殺死低社經地位的人,但對比貧富差距較小的芬蘭,網友在選擇上就不會產生這樣的差異。

post title

如果拿台灣和美國進行比較的話,「拯救更多人」這一題上,台灣拿下了倒數第 2名,但美國位居第 14名。另外在「拯救高社經地位」上,美國拿下了接近中位數的第 48名,但台灣是第 113名,相當於倒數第 5名。

Photo: Moral Machine Results

20-30歲、讀過大學、男性

MIT研究團隊也坦承,「道德機器」的研究結果可能會有所偏差,因為所有的受試者能夠自己選擇是否要做題目,這會更容易吸引到有網路、高社經地位、對自動駕駛車有興趣的人來作答。

特別是在網路較不普及的國家,更有可能會蒐集到高社經地位的網友。MIT在論文中寫道:「大多數『道德機器』的受試者都是男性、讀過大學、年紀介在 20、30多歲。」

post title

圖為 2014年5月,Google在美國加州南灣山景城(Mountain View)展示了Google無人駕駛車感應器看到的景象。

路透社/達志影像

不符合真實情況

沒有參與這項研究的美國南卡羅來納大學(University of South Carolina)法學教授史密斯(Bryant Walker Smith)質疑,「道德機器」的研究太不切實際,因為在現實情況下很少有駕駛會需要在兩種類型的情況當中做選擇。

自動駕駛車分不出來

也有一派人認為,現今自動駕駛車的感應器沒有辦法分辨前方的物體是車子還是堅固的牆壁,更不用說要判斷前方行人社經地位是好是壞,距離「道德機器」的情境設計上,自動駕駛車技術還有很長一段路要走。

致命的微小道德判斷

面對上述質疑,MIT研究團隊表示,「道德機器」的情境反映出人類司機在日常上做出的道德判斷。例如,一名駕駛在山區行進時,為了要閃避腳踏車騎士,很有可能會撞上對向來車,這些人類司機做的微小道德判斷,有時很有可能是致命的。

post title

圖為今年 3月,在德國柏林,福斯汽車(Volkswagen)製造的自動駕駛車Sederic上顯示了「停車」(STOP)。

路透社/達志影像

沒有全球通用的道德標準

這份研究的共同作者MIT電腦科學家拉萬(Iyad Rahwan)說:「對於那些認為可以找出一套提供給機器人的完美機器倫理法則的人來說,這次我們的數據顯示出(道德)沒有全球通用的準則。」

MIT研究團隊希望,這次的調查結果能讓各國政府、自動駕駛車製造商注意到,自動駕駛車在設計上必須要考慮到各國文化上的不同。

告訴政府和車廠道德偏好

MIT研究團隊表示:「在人類歷史上,我們從來沒有允許任何一部機器能夠在幾分之一秒內、不用在真實世界的指導下自動決定誰該活下、誰該死亡。」

「在我們允許車子做出道德判斷之前,我們需要展開一次全球性的對話,告訴設計道德演算法的公司和政策決策者我們的偏好。」