這涉及到自動駕駛汽車上一個非常棘手的問題,就是道德風險。到目前為止,沒有任何一部法律明確了車輛的測試主體應該寫怎樣的程式,來讓自動駕駛汽車在遇到這樣的問題時如何應對。
在自動駕駛政策最為完善的美國,對此也只有部分說明。
由自動駕駛系統的計算機駕駛員做出的很多決策,將上升到道德維度。同一個現實情況下,計算機駕駛員會根據不同的道路使用者做出不同的決策,換句話說,是由程式化決策規則甚至在沒有明確道德規則情況下的機器學習過程。
在沒有明確的道德規則或偏好的情況下,自動駕駛系統程式將會從重要的道德後果中建立一個內在的、固有的決策規則。
生產商和企業,與監管機構和其他利益相關者(如司機、乘客和弱勢道路使用者)相互合作,針對這些情況,以確保這樣的道德判斷和決策是有意識的和自覺的。
大多數車輛運營商的三個合理目標是安全性、流動性和合法性。在大多數情況下,這三個目標可以同時實現,沒有衝突。在某些情況下,這些目標的實現可能會發生衝突。例如,大多數州都有一條禁止機動車在公路中心穿越雙黃線的法律。當雙車道上的另一個車並排停放時,或者是阻擋了車輛行駛線,流動性就可能與安全性、合法性(例如,避免與來車相撞和遵守法律)產生衝突。當自動駕駛系統面臨這種衝突時,會存在不同的解決方式,這取決於提前設定的決策規則,或甚至是由人類駕駛員或乘員設定的。
同樣,當針對兩輛汽車的乘員時,安全性就可能產生衝突。在這種情況下,它可能是以其中一個人的安全為代價。在這種兩難的情況,自動駕駛系統系統的決策程式將會對每一個相關人員的未來產生重要影響。
由於這些決定可能不僅會影響自動化車輛和乘客,也會影響周圍的道路使用者,所以對這些衝突的解決方案應該是可以被廣泛接受的。因此,當這三個目標產生衝突時,對於自動駕駛系統是否需要特殊決策規則的考慮,將會顯得很重要。
解決這些衝突的演算法,對於聯邦和州的監管機構、駕駛員、乘客和脆弱的道路使用者應該是公開的,並且考慮到自動駕駛系統行為對他們造成的後果。
這涉及到自動駕駛汽車上一個非常棘手的問題,就是道德風險。到目前為止,沒有任何一部法律明確了車輛的測試主體應該寫怎樣的程式,來讓自動駕駛汽車在遇到這樣的問題時如何應對。
在自動駕駛政策最為完善的美國,對此也只有部分說明。
由自動駕駛系統的計算機駕駛員做出的很多決策,將上升到道德維度。同一個現實情況下,計算機駕駛員會根據不同的道路使用者做出不同的決策,換句話說,是由程式化決策規則甚至在沒有明確道德規則情況下的機器學習過程。
在沒有明確的道德規則或偏好的情況下,自動駕駛系統程式將會從重要的道德後果中建立一個內在的、固有的決策規則。
生產商和企業,與監管機構和其他利益相關者(如司機、乘客和弱勢道路使用者)相互合作,針對這些情況,以確保這樣的道德判斷和決策是有意識的和自覺的。
大多數車輛運營商的三個合理目標是安全性、流動性和合法性。在大多數情況下,這三個目標可以同時實現,沒有衝突。在某些情況下,這些目標的實現可能會發生衝突。例如,大多數州都有一條禁止機動車在公路中心穿越雙黃線的法律。當雙車道上的另一個車並排停放時,或者是阻擋了車輛行駛線,流動性就可能與安全性、合法性(例如,避免與來車相撞和遵守法律)產生衝突。當自動駕駛系統面臨這種衝突時,會存在不同的解決方式,這取決於提前設定的決策規則,或甚至是由人類駕駛員或乘員設定的。
同樣,當針對兩輛汽車的乘員時,安全性就可能產生衝突。在這種情況下,它可能是以其中一個人的安全為代價。在這種兩難的情況,自動駕駛系統系統的決策程式將會對每一個相關人員的未來產生重要影響。
由於這些決定可能不僅會影響自動化車輛和乘客,也會影響周圍的道路使用者,所以對這些衝突的解決方案應該是可以被廣泛接受的。因此,當這三個目標產生衝突時,對於自動駕駛系統是否需要特殊決策規則的考慮,將會顯得很重要。
解決這些衝突的演算法,對於聯邦和州的監管機構、駕駛員、乘客和脆弱的道路使用者應該是公開的,並且考慮到自動駕駛系統行為對他們造成的後果。