回覆列表
-
1 # 矽釋出
-
2 # 智動機
法規漏洞就是邏輯本身,包括前提假設、推導過程和論證結論,具體而言:
阿西莫夫的機器人三定律如下,第一定律:機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;
第二定律:除非違背第一定律,機器人必須服從人類的命令;
第三定律:在不違背第一及第二定律下,機器人必須保護自己。
前提是:人類足夠聰明,可以設計出比目前人類社會制度更完美的社會規則,來實現在不傷害A的前提下,阻止A去傷害B。
現實是,目前任何一個國家或者宗教的社會規則制定者(包括社會學家、思想家、政治家等)都不能給人類提供一套完美的制度標準,以避免人與人之間用工具互相傷害。既然阿西莫夫的機器人三定律的前提條件是有問題的,那麼更不可能讓程式設計師(並不擅長設計規則的一類人)給機器人推導和編寫出一套規則完美的計算機程式,來實現機器人三定律了。
我們需要認識到,機器人和木棒、刀具一樣,本質是人類的生產力工具,只不過其科技含量更高。它是否傷害人類,不由發明它的人決定,而是由使用它的人決定。
第一法則:機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;
第二法則:除非違背第一法則,機器人必須服從人類的命令;
第三法則:在不違背第一及第二法則下,機器人必須保護自己;
第零法則:機器人不得傷害人類這族群,或因不作為(袖手旁觀)使人類這族群受到傷害。
將其形式化,R代表機器人,H代表人類,A代表優先順序
1.1 R not harm H (AAA) 1.2 R not watch H harm(AAA)
2.R listen to H (AA)
3.R protect R (A)
0.R not harm Hs
首先,邏輯漏洞是一大堆的。阿西莫夫設定機器人三定律並不是為了給機器之心立法,而是為了透過一系列看似邏輯嚴密的規則說明規則與邏輯並不適用於所有情況。在阿西莫夫的 I ,Robot 的情節裡就有很多三定律互相牴觸的情況。
透過形式化的命題來看,3+1定律都是絕對律令(不能做什麼),並且賦予了不同優先順序。所以,可以說在任何兩個定律出現矛盾時,選擇高優先順序定律就是必然。尤其是定律3的低優先順序讓機器人在任何涉及人類指令的情況下難以自保。換句話說,機器人永遠無法先考慮自己。這是阿西莫夫對“人類中心主義”的一種諷刺。
當機器人的主人傷害其他人類時,機器人必須阻止主人(1.2),但是若因此誤傷主人(1.1),說明1定律內部會出現矛盾。
當人類傷害機器人時,機器人需要保全自己。但若人類命令其停止保護(2),機器人則無他法。
當人類欺騙機器人去傷害他人時(若機器人沒有檢測出這種欺騙),那麼機器人相當於把2的優先順序置於1前。
尚不清楚定律0的優先順序。但是若人類個體傷害人類群體,機器人必須在1和0之間做出抉擇時,必定造成優先順序困境。
阿西莫夫機器人三定律中隱含聖經“十誡”中的影子。如“不可殺人”。這些絕對律令並不能防止機器人在所有的情況都做出“正確的”判斷。換句話說,完全“正確的”判斷是情境依賴的,而不是絕對的。
另一個阿西莫夫所隱含的價值判斷是,機器人之所以必須遵從三定律,是因為其內部設定。但是這樣的設定並不能讓機器人“更明智”。而一旦機器人真正擁有“自我意識”,那麼它也一定會認識到三定律的矛盾之處。或者說,透過明確判斷三定律的弔詭之處,機器人可能才擁有自我意識和對自我的“再次定義”。這又是一個阿西莫夫暗諷人類社會道德定律的例子。