電車問題是一種道德困境,通常涉及生死場景。
現場是這樣的:一輛電車失控,直道前方是有5人。您可以控制槓桿以將電車轉移到另一條軌道。問題是,另一條軌道上也有1個人。你會選擇犧牲5個人還是犧牲1個人?在這兩種情況下,人們都會受到傷害。你認為哪個更符合人性道德的選擇?
谷歌搜尋將會出現成千上萬的點選,提出這樣的場景:“如果一輛校車在錯誤的車道上下山,你會設計一輛車從山路上行駛,犧牲乘客嗎? “這是一個有趣且有趣的問題,但大多數作者在討論它時都不知道,這對於自動駕駛汽車來說不是問題。
事實上,有個很有趣的網站(http://moralmachine.mit.edu/hl/zh)--道德的機器,出自麻省學院,用來採集人類對於人工智慧可能會遇見的各種道德難題的意見收集平臺。
但是這些型別的問題被歸類為“不贏的情景”。如果汽車處於無法“正確”移動的位置,該怎麼辦呢?要回答這個問題,讓我們看看問題已經解決的領域:井字遊戲。
X代表人類,O代表人工智慧
這張圖片對於O來說是一個不贏的場景。如果人工智慧正在輸入O並且在電路板的左側,X將在底部輸入並獲勝; 如果人工智慧在底部輸入,X將在左側輸入並獲勝。無論在這種情況下它做什麼,人工智慧都會失敗。
然而,我們知道一個設計合理的計算機程式永遠不會輸掉井字遊戲。怎麼可能?就像AI汽車的情景一樣(殺死乘客或者撞上校車?)這對人工智慧來說這是一個沒有勝利的場景。如果在這種情況下無法取勝,那麼計算機永遠不會進行T井字遊戲怎麼樣?
答案在兩種情況下都是一樣的......人工智慧不允許自己陷入這種情況。
“這真的很簡單。自動駕駛汽車永遠不必在殺死一群人或殺死其乘客之間做出選擇,如果它永遠不會允許自己處於必要的選擇。“
對上述問題的典型反駁是,“設計師無法預料到的情況怎麼樣?”但正如任何程式設計師都會告訴你的那樣,這是錯誤的問題。如果程式設計師無法預料到這種情況,那麼程式設計師根本無能為力。他將無法提前告知該車採取何種行動。例如問你如何解決一個問題的時候,你不知道情況的細節時,簡直就是一臉蒙逼的狀態。
所以解決方案很明顯。儘可能地預測並計劃好幾步,讓無法獲勝的場景盡不可能地產生。至於未知的無贏場景,設計師在這種情況下無能為力,因此詢問他們該做什麼是浪費時間的。
電車問題是一種道德困境,通常涉及生死場景。
現場是這樣的:一輛電車失控,直道前方是有5人。您可以控制槓桿以將電車轉移到另一條軌道。問題是,另一條軌道上也有1個人。你會選擇犧牲5個人還是犧牲1個人?在這兩種情況下,人們都會受到傷害。你認為哪個更符合人性道德的選擇?
谷歌搜尋將會出現成千上萬的點選,提出這樣的場景:“如果一輛校車在錯誤的車道上下山,你會設計一輛車從山路上行駛,犧牲乘客嗎? “這是一個有趣且有趣的問題,但大多數作者在討論它時都不知道,這對於自動駕駛汽車來說不是問題。
事實上,有個很有趣的網站(http://moralmachine.mit.edu/hl/zh)--道德的機器,出自麻省學院,用來採集人類對於人工智慧可能會遇見的各種道德難題的意見收集平臺。
但是這些型別的問題被歸類為“不贏的情景”。如果汽車處於無法“正確”移動的位置,該怎麼辦呢?要回答這個問題,讓我們看看問題已經解決的領域:井字遊戲。
X代表人類,O代表人工智慧
這張圖片對於O來說是一個不贏的場景。如果人工智慧正在輸入O並且在電路板的左側,X將在底部輸入並獲勝; 如果人工智慧在底部輸入,X將在左側輸入並獲勝。無論在這種情況下它做什麼,人工智慧都會失敗。
然而,我們知道一個設計合理的計算機程式永遠不會輸掉井字遊戲。怎麼可能?就像AI汽車的情景一樣(殺死乘客或者撞上校車?)這對人工智慧來說這是一個沒有勝利的場景。如果在這種情況下無法取勝,那麼計算機永遠不會進行T井字遊戲怎麼樣?
答案在兩種情況下都是一樣的......人工智慧不允許自己陷入這種情況。
“這真的很簡單。自動駕駛汽車永遠不必在殺死一群人或殺死其乘客之間做出選擇,如果它永遠不會允許自己處於必要的選擇。“
對上述問題的典型反駁是,“設計師無法預料到的情況怎麼樣?”但正如任何程式設計師都會告訴你的那樣,這是錯誤的問題。如果程式設計師無法預料到這種情況,那麼程式設計師根本無能為力。他將無法提前告知該車採取何種行動。例如問你如何解決一個問題的時候,你不知道情況的細節時,簡直就是一臉蒙逼的狀態。
所以解決方案很明顯。儘可能地預測並計劃好幾步,讓無法獲勝的場景盡不可能地產生。至於未知的無贏場景,設計師在這種情況下無能為力,因此詢問他們該做什麼是浪費時間的。