回覆列表
  • 1 # Tiekt鐵鐵

    是的,後來出現了“零定律”:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。為什麼後來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執行一些人的死刑。這種情況下,機器人該不該阻止死刑的執行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。所以新的阿西莫夫的定律為:第零定律:機器人不得傷害人類,或目睹人類將遭受危險而袖手不管。 第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。 第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。 第三:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。 三定律加上零定律,看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。威爾•史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”的確,人類現有的邏輯對很多問題都是無能為力的,所以,個人認為所謂的“零定律”根本是起不到什麼作用的。除此,另一個科幻作家羅傑·克拉克在一篇論文中還指出了三條潛在的定律:元定律:機器人可以什麼也不做,除非它的行動符合機器人學定律。此定律置於第零、第一、第二、第三定律之前。 第四定律:機器人必須履行內建程式所賦予的責任,除非這與其他高階的定律衝突。 繁殖定律:機器人不得參與機器人的設計和製造,除非新的機器人的行動服從機器人學定律。

  • 中秋節和大豐收的關聯?
  • 小麥春天打藥,用什麼殺菌劑,效果更好呢?