回覆列表
  • 1 # 象眼觀天下

    這個問題其實早幾十年就有人關注了,很多科幻作家為此創造了大量的科幻小說,滿足了讀者的好奇心。

    其中比較有名的是美國科幻作家阿西莫夫,他曾經創作過《我,機器人》系列作品,並且在其中提出了著名的“阿西莫夫三定律”,用以規範人和機器人之間的規則:LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEING OR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BY HUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCE AS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.第三定律:機器人在不違反第一、第二定律的情況下要儘可能保護自己的生存

    阿西莫夫認為,將來如果出現只能機器人的話,在機器人生產製造之處,就必須將這三定律作為原始程式碼植入機器人大腦中,讓這三定律成為機器人的本能。

    阿西莫夫在這個框架之下,構建了大量的小說,今天看起來依然有很重要的意義。比如“第一定律”中,機器人不得傷害人,那麼如何在程式碼中定義“人”,並且能夠讓機器人判斷出對方是“人”,這就有很多問題。比如未來使用機械器官的“人”,還算不算“人”,如果一個自然的“人”,在科技足夠發達時,將他的所有內臟、四肢,除了大腦之外,全部都換成機械的、人造的,那麼他還能不能被視為“人”?或者一個放棄了自己的肉體,把自己的意識移植到網路的人,還算不算“人”?一個克隆了自己的肉體,並把意識copy到新肉體上,放棄了舊的肉體的“人”,算不算人?阿西莫夫圍繞這些問題,構思了很多很有趣的小說。

    此外,後來的科幻作家們不斷在阿西莫夫三定律上開發出新的機器人守則,這裡只舉羅傑·克拉克為例,他構思的機器人原則是:

    元原則:機器人不得實施行為,除非該行為符合機器人原則。第零原則:機器人不得傷害人類整體,或者因不作為致使人類整體受到傷害。第一原則:除非違反高階原則,機器人不得傷害人類個體,或者因不作為致使人類個體受到傷害。第二原則:機器人必須服從人類的命令,除非該命令與高階原則牴觸。機器人必須服從上級機器人的命令,除非該命令與高階原則牴觸。第三原則:如不與高階原則牴觸,機器人必須保護上級機器人和自己之存在。第四原則:除非違反高階原則,機器人必須執行內建程式賦予的職能。繁殖原則:機器人不得參與機器人的設計和製造,除非新機器人的行為符合機器人原則。

    如果按照這些科幻作家的構思,未來的高度智慧化的機器人是不可能侵犯人類。

    不過,實際上,人類社會從來沒有把“阿西莫夫三定律”當成一回事。

    在機器人人制造和生產過程中,大家還是普遍把機器人看做工具,不認為其具備自主思想。在軍隊和警察部門,使用機器人作為輔助工具的情況現在並不少見,將其製作成為殺人武器的,也開始逐漸成為現實。

    比如無人機、無人戰艦、無人攻擊機械車輛等等,這些從廣義上講,都是機器人。並且美軍在阿富汗戰場上、伊拉克戰場上實際已經投入使用。

    這種無人機攻擊的時候,肯定不在乎是不是能夠侵犯人類。

    這種配置了槍械的自動機械車,也是機器人的一種,具備侵犯人的能力。

    這種攻擊機器,威力可比一般人類要厲害的多。

    中國軍隊也開發出了各種無人攻擊機,注意,這是2014年。

    現在機器人攻擊人類的不是一個科幻想象,而是活生生的事實。

    和科幻作家描繪的未來不一樣的是:1、現在的無人攻擊武器依然是遙控的,不是完全自主的;2、機器人不具備人類外形;3、各國對於機器人殺人沒有建立任何限制條件。

    隨著科技的不斷髮展,我相信未來,完全的智慧機器人、可以自主判斷、自主決策的機器人必將出現。這種情況下,如何限制、制止機器人對人類的攻擊總有一天會成為人類必須面對的問題。

  • 中秋節和大豐收的關聯?
  • 手槍鑽,角磨機是哪類電機,轉速那麼快?謝謝?