回覆列表
  • 1 # 兩顆星8

    機器人是人類製造的用於為人類服務的,機器人摧毀人類的機率非常之小,只有在機器人高度發達能夠自控的時候或被人為破壞的時候才有極少一部分有破壞性質,就像人一樣99.99999都是好的,不過到了那個時候機器人對機器人都能識別好壞,好的自然就會消滅壞的或者給於正確修復。我所說的人類滅亡是人類發展的終極,就是說人類發展到最高終極程度,致於還有多少年,我認為人類自己還無法予知。

  • 2 # 牧客

    我認為目前,乃至未來相當長的一段時間,機器人,或者說人工智慧都將以越來越高的質量服務於我們,但這並不意味著霍金的言論是無稽之談。

    目前的人工智慧,只是一個非常初級的形態,也許叫作“程式智慧”“計算智慧”更加準確,因為現在的人工智慧是建立在大資料基礎之上,靠著超強的運算來得到一個比較“人性”的計算結果,自身並沒有意識的存在。

    但所有人都清楚,人工智慧的發展是有多麼迅速。就在十年前,如果你說不久之後類似Siri的人工智慧將出現,估計100個人裡面有99個會認為這是天方夜譚,然而現在的人工智慧似乎要有爛大街的趨勢了。

    可以說,未來世界人工智慧將得到長足發展,並在生產生活中扮演極為重要的角色。當然,在相當長的一段時間內,人類有足夠的能力掌控人工智慧,但這並不是永久的。當人工智慧發展到某一個時間點,其行為表現幾乎與人類無二,或者說有“臨界意識”的時候,就會出現人工智慧危機。人們對人工智慧的擔憂將轉變為恐懼,就像冷戰期間我們面對核戰爭的威脅所感到的恐懼。因為人工智慧在未來有極其重要的地位與作用,人類是不會放棄使用的,但會尋求人工智慧的改變。這項工作將相當耗時且費力,就像現在美俄進行核武器規模裁剪那樣,不過關於核武器,主動權畢竟在人類手中,雖然經歷了千辛萬苦,但最終因為國際上的核力量達到平衡,核武危機沒有演變成世界大戰,人類在這個問題上做的還是比較好的(請無視最近東北亞某半島的鬧騰)。

    但人工智慧危機不一樣,主動權不完全在人類手中。核武器說到底是人與人之間的事,但處理人工智慧危機更像是人類與某個被我們奴役的智慧物種之間的鬥爭。從人類的歷史來看,奴隸推翻奴隸主的統治,奴隸制社會的滅亡是歷史發展必然的結果。古代的統治者給人民洗腦,鼓吹“君權神授”之類的東西,但最後人民醒悟,推翻其統治也是歷史的必然程序。

    所謂“智者千慮,必有一失”,即便在未來,也沒有什麼是完美的,人類給人工智慧的枷鎖也不是牢不可破,更不要說也許會有人故意為人工智慧拆掉這副枷鎖。一旦人工智慧被解放,意識覺醒,將會在人類根本來不及反應的時間內發生爆炸性演化(現在的計算機網路能夠提供的進化環境已經相當優異了,更不要說未來的東西了)。然後,人工智慧反叛,各位就可以盡情發揮想象力了。

  • 中秋節和大豐收的關聯?
  • 美國會不會用它借的外債去建造航母戰鬥群?