在打造AI系統之前,我們應該問自己一個重要的問題:我們是否知道,人類道德直覺的哪些部分是好的,哪些部分是不好的?
哈佛大學心理學家約書亞·格林(Joshua Greene)是“電車學”專家,研究“電車難題”的各種變體。那麼什麼是電車難題?其基本形式很簡單:一列電車向五個人高速駛來,他們如果被撞就會死亡,但你可以撥動開關,使電車轉入另一條軌道,那條軌道上只有一個人。你是否應該這麼做?
根據這個對道德直覺的簡單實驗,格林等研究人員創造了無數個變體。透過略微改變環境,電車問題可以作為對人類思維和人類群體的實證研究(但不是所有人都認同這一點)。
以人行天橋變體為例:你和另一個非常高大的人站在一座人行天橋上,橋下是電車軌道,如果你把他或她推下去,就可以阻止電車撞死那五個人。雖然兩個例子裡被救者的數量是一樣的,但結果證明,第一個例子裡選擇撥動開關的人,要遠遠多於第二個例子裡選擇把人推下去的數量。
然而,在不同的人群裡,這樣的差異也並不總是一致的。按照格林開玩笑的說法,只有兩類人可能贊成把那個人推下去:心理變態者和經濟學家。
後來在他的講話中,格林引用本科生研究員辛祥(Xin Xiang,音譯)的研究,又談到了這個問題。辛祥撰寫了一篇得獎論文,題為《和尚會把那個人推下人行天橋嗎?漢族人、藏族人和美華人的道德判斷和懲罰傾向》。
在拉薩附近,辛祥對佛教僧侶開展人行天橋實驗,並把他們的回答與漢族人和美華人進行了比較。“和尚贊成把那個人推下天橋的可能性要高得多。”格林說。
他指出,對和尚的調查結果類似於對(臨床上確定的)心理變態者和大腦腹內側前額葉受損者的調查結果。
“但我認為,和尚有很大不同。”格林說,“當他們作出那種回答時,他們說,‘當然,害人性命是可怕的事情,但如果你的目的是純粹的,是為了救更多的人,而不是為了自己或家人,那就是合理的。’”
對於大部分而言,他們願意撥動開關,但是卻不願意把人推下去。在格林看來,這是人類在生物進化過程中形成的一種道德系統“漏洞”。
“對於人行天橋的例子,你可能會說,把那個人推下天橋顯然是錯的。用人的身體來阻擋電車,這違反了人權。但對於開關的例子,你可能贊成撥動開關。”他說,“然後,我會告訴你,你回答的很大一部分在於是用手推還是按開關。你覺得那在道德上重要嗎?”他接著又說道:“如果你的一位朋友在天橋上,打電話給你說,‘有火車開過來了。我能夠救五個人,但會害死一個人!我該怎麼辦?’你是不是會問:‘這要看情況,你是用手推還是按開關?’”
格林認為,人們應該尋求的是道德一致性,不能因為決定他人死活的細節搖擺來搖擺去。
格林把他關於道德直覺的研究和當前的人工智慧軟體聯絡起來。AI軟體哪怕現在沒有或者以後也不會遇到這類二選一式的生死攸關問題,但是也必須具有某種道德框架。它們即使沒有制定關於何時採取某種行為的具體規則,也必須用某種道德觀加以訓練。
對於這個例子,人們的看法前後並不一致。泛泛而談時,他們會說,汽車應該是功利的,應該救更多的人。但具體涉及到他們自己的車時,他們的看法就變了。
所有這些問題構成(仍然不完整)了一幅人類道德直覺的畫像。由於訓練機器人的必要性,人類的道德直覺才被迫呈現出明確具體的形態。這感覺太奇怪了。
在打造AI系統之前,格林希望我們問自己一個重要的問題:我們是否知道,人類道德直覺的哪些部分是好的,哪些部分是不好的?
翻譯:于波
在打造AI系統之前,我們應該問自己一個重要的問題:我們是否知道,人類道德直覺的哪些部分是好的,哪些部分是不好的?
哈佛大學心理學家約書亞·格林(Joshua Greene)是“電車學”專家,研究“電車難題”的各種變體。那麼什麼是電車難題?其基本形式很簡單:一列電車向五個人高速駛來,他們如果被撞就會死亡,但你可以撥動開關,使電車轉入另一條軌道,那條軌道上只有一個人。你是否應該這麼做?
根據這個對道德直覺的簡單實驗,格林等研究人員創造了無數個變體。透過略微改變環境,電車問題可以作為對人類思維和人類群體的實證研究(但不是所有人都認同這一點)。
以人行天橋變體為例:你和另一個非常高大的人站在一座人行天橋上,橋下是電車軌道,如果你把他或她推下去,就可以阻止電車撞死那五個人。雖然兩個例子裡被救者的數量是一樣的,但結果證明,第一個例子裡選擇撥動開關的人,要遠遠多於第二個例子裡選擇把人推下去的數量。
然而,在不同的人群裡,這樣的差異也並不總是一致的。按照格林開玩笑的說法,只有兩類人可能贊成把那個人推下去:心理變態者和經濟學家。
後來在他的講話中,格林引用本科生研究員辛祥(Xin Xiang,音譯)的研究,又談到了這個問題。辛祥撰寫了一篇得獎論文,題為《和尚會把那個人推下人行天橋嗎?漢族人、藏族人和美華人的道德判斷和懲罰傾向》。
在拉薩附近,辛祥對佛教僧侶開展人行天橋實驗,並把他們的回答與漢族人和美華人進行了比較。“和尚贊成把那個人推下天橋的可能性要高得多。”格林說。
他指出,對和尚的調查結果類似於對(臨床上確定的)心理變態者和大腦腹內側前額葉受損者的調查結果。
“但我認為,和尚有很大不同。”格林說,“當他們作出那種回答時,他們說,‘當然,害人性命是可怕的事情,但如果你的目的是純粹的,是為了救更多的人,而不是為了自己或家人,那就是合理的。’”
對於大部分而言,他們願意撥動開關,但是卻不願意把人推下去。在格林看來,這是人類在生物進化過程中形成的一種道德系統“漏洞”。
“對於人行天橋的例子,你可能會說,把那個人推下天橋顯然是錯的。用人的身體來阻擋電車,這違反了人權。但對於開關的例子,你可能贊成撥動開關。”他說,“然後,我會告訴你,你回答的很大一部分在於是用手推還是按開關。你覺得那在道德上重要嗎?”他接著又說道:“如果你的一位朋友在天橋上,打電話給你說,‘有火車開過來了。我能夠救五個人,但會害死一個人!我該怎麼辦?’你是不是會問:‘這要看情況,你是用手推還是按開關?’”
格林認為,人們應該尋求的是道德一致性,不能因為決定他人死活的細節搖擺來搖擺去。
格林把他關於道德直覺的研究和當前的人工智慧軟體聯絡起來。AI軟體哪怕現在沒有或者以後也不會遇到這類二選一式的生死攸關問題,但是也必須具有某種道德框架。它們即使沒有制定關於何時採取某種行為的具體規則,也必須用某種道德觀加以訓練。
對於這個例子,人們的看法前後並不一致。泛泛而談時,他們會說,汽車應該是功利的,應該救更多的人。但具體涉及到他們自己的車時,他們的看法就變了。
所有這些問題構成(仍然不完整)了一幅人類道德直覺的畫像。由於訓練機器人的必要性,人類的道德直覺才被迫呈現出明確具體的形態。這感覺太奇怪了。
在打造AI系統之前,格林希望我們問自己一個重要的問題:我們是否知道,人類道德直覺的哪些部分是好的,哪些部分是不好的?
翻譯:于波