首頁>Club>
第零定律:機器人必須保護人類的整體利益不受傷害。 第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學第零定律。 第二定律:機器人必須服從人給予它的命令,當該命令與第零定律或者第一定律衝突時例外。 第三定律:機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。 有人這樣評價:三定律加上零定律,看來堪稱完美,但是“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。 其實這個評價正確,但還是低估了人工智慧。如果人工智慧和人類思維齊平,即使有這四個定律,也不能保證他不傷害人,或者它不遵從別人的命令而不傷害人。
5
回覆列表
  • 1 # 夢某人解說

    每個定律都是一環扣一環的,但是如果找到了環與環之間的漏洞,就會發生科幻電影中的情節。但是目前來說還是靠譜的。因為現在的人工智慧科技沒有那麼發達。

  • 2 # 王百秋

    實際上,更多人所熟知的是機器人學三定律,即題中的一二三定律。

    該定律首次提出於阿西莫夫的《我,機器人》中,在1950年末由格諾姆出版社出版。

    後來,又加上了第零定律。

    為什麼後來要定出這條“零定律”呢? “第零定律”的重要性在於地位凌駕其它三大定律,如若有個機器人為保護人類整體(第零定律),必須殺害一個人或一群人(違反第一定律),機器人的判斷規則會為了人類整體著想就會同意謀殺罪行。

    打個比方,要對殺人犯執行死刑,那麼殺人犯的機器人該不該阻止死刑的執行呢?有了第零定律,就能人類的整體利益。

    那麼,上述四條定律是否靠譜呢?個人覺得還是不完全靠譜的,因為有很多漏洞。

    1. 道德和價值觀。這四大定律實際上是從利益出發,並沒有涉及善與惡的問題。假如有兩個組織相互對立,那麼其手下的機器人的價值觀就是相悖的,也沒法理解人類的整體利益。(實際上,人類歷史上很多重大決策在制定時也並不能很好的理解當時人類的整體利益,從而不符合人類整體利益,如二戰等)

    2. 機器人的人權。這四大定律並沒有很好的定義人類和機器人的關係,如果按照上述定律,機器人可能是人類的朋友或是奴隸。這是兩種完全不同的關係,尤其是後者,由於四大定律並沒有很好的保護機器人的權利(第四條只是限定機器人保護自己)必將引起高智機器人的反彈。電影《機械公敵》就是這種情況的很好反映,《人工智慧》中,人類對機器人的不待見也能看出端倪。

    3. 機器人的身份。還有一個重要的問題是,假如未來機器人高度發達,掌握了人類的思維和情感,能否定義之為人?(材料之間的差異屆時容易替換)是否有機器人以人類自居或者打算轉化為人類? 電影《人工智慧》小男孩跨越千年只為得到人類的認可,電影《機器管家》最後捨棄壽命終得承認人的身份,電影《機械姬》裡最終機器人走出基地,混入人群無蹤跡。。

    綜上,機器人四大定律是從人類利益出發,制定的機器人為人類服務的定律,有其內部的邏輯性,但靠這幾條定律還是不夠的。

  • 中秋節和大豐收的關聯?
  • 微控制器定時5ms觸發可控矽,按理說應該只有110v電壓,為什麼電壓降不下來?