回覆列表
  • 1 # 武漢智慧雲2025

    在回答這個問題之前,我們先來說下機器人三大定律:

    一、機器人不得傷害人,也不得見人受到傷害而袖手旁觀。二、機器人應服從人的一切命令,但不得違反第一定律。

    三、機器人應保護自身的安全,但不得違反第一、第二定律。

    這是阿西莫夫在1950年末透過自己的文章發表出來的,他所寫的機器人是人類的忠僕和朋友,同時他嚮往的是人類為代表的“碳文明”與機器人為代表的“鋼鐵文明”的共存共生。

    一九五九年,美國英格伯格和德沃爾製造出世界上第一臺工業機器人,宣告機器人從科學幻想變為現實。隨著機器人技術的不斷進步,隨著機器人的用途日益廣泛,“第零定律”又被提出:

    第零定律:機器人必須保護人類的整體利益不受傷害,其它三條定律都是在這一前提下才能成立。

    為什麼後來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執行一些人的死刑。這種情況下,機器人該不該阻止死刑的執行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。

    你看,在機器人還沒有完全出來之前就已經制定出了約束(暫且說是約束)機器人的三大定律,也就是說所有機器人的行為都必須要在這三大定律之中才允許被製造出來,更不用提後來補充的第零定律。

    所以我認為在這四條定律的規定下,機器人在製造過程中就會被輸入相關的程式,一旦發生對人類有傷害的行為,程式會自動發出指示停止機器人,對人類能構成的威脅幾乎為零。當然,如果有人不按照定律偷偷自己研製機器人,那就另當別論了。

    再來說AI(人工智慧)。說起人工智慧,我覺得最典型的就是當年喪屍系列電影《生化危機》裡面的“Queen”

    當年看這個的時候,我對它的印象非常深刻,病毒被人為洩漏後,Queen為控制T病毒不讓其外洩到地面,將蜂巢全部封閉,所有工作人員慘死在蜂巢內。從大的層面來說,這個行為是正確的:起碼保證了地面所有人類的安全,但是這一做法讓無辜的工作人員也慘死其中,只能說明人工智慧在決策時求達到目標,不會像人類那樣因外界狀況變化而臨時改變。有點像極端的人為求目的不擇手段。

    人工智慧是一個虛擬的存在,沒有實體,或者說它的實體是一臺大型的超級計算機。 人工智慧的應用,到目前為止,僅是人類智慧的輔助工具,它的目標和決策規則,均是事先由人類設定。該類應用的幾個關鍵環節為:感知、決策、控制。其中,感知相當於決策系統的輸入;控制相當於決策系統的輸出。輸入輸出過程中,需要對系統進行加密/解密,決策系統多數需要人工參與,這就涉及到身份認證或訪問許可權控制。安全的資料傳輸和訪問許可權控制,是系統資訊保安的兩個主要研究領域。

    由於決策系統是由人工參與,只要身份認證透過,擁有許可權控制,AI是聽從人類的,這樣想來,好像比機器人要危險一點啊。機器人有四大定律約束,人類命令他做事,他的所有行為都是建立在不傷害人類的前提下。

    AI目前好像沒有這方面的規定,它的決策行為取決於透過身份認證有許可權控制的人的命令,它不擇手段的達成目的。但是你要知道,這並不是出於AI本意,而是來源於人類所下達的命令。說白了,AI就是一個工具,本身不具有好壞善惡,把它用來幫助人還是殺人,完全取決於所使用它的人了。

    基本到這裡你大概就明白了,不管是機器人還是AI,有沒有定律約束,本質上都沒有會威脅人類發展的能力。畢竟,他們是為了服務人類而製造出來。對人類造成威脅的,是使用它們的居心叵測的人類。

    另外,很多人在擔心AI和機器人是否會產生自己的思想而導致反過來統治人類(突然想起來可能提問者就是想表達這個意思)。我覺得完全不用擔心,就現有的情況來看,能製造出像人類那樣靈活的機器人都還有很長一段路要走,更不用提它們產生自己的獨立思想了。就算真的有那麼一天,我們也已經不在了,發生什麼都跟我們無關,所以根本不用過於擔心。

    其實比起這個,我認為目前更多擔心的是失業以及能力提升問題。科技的發展使得自動化行業進步很快,替代了一部分的簡單重複性工作,而企業未來的用人要求會進一步提高,比起虛無縹緲的“主宰人類”論,我覺得這個是目前我們需要認真考慮的問題。

  • 中秋節和大豐收的關聯?
  • 國家紅利之下,瑞典人是如何做遊戲的?