回覆列表
  • 1 # 環球解密之未解之謎

    首先這些機器人會不會改造自己,以目前的現有的技術我無法確切回答,當機器人有了一定的“思維”後,可能真的出現如你說的情況,甚至出現報復人類的可能性。

    今天我主要來談談目前機器人對人類的威脅,如果現在處理不好,人類可能真的就要毀在自己手上了!

    《每日郵報》稱南韓私下開發“自主意識”機器人,學者:人類將加速滅絕

    學術界對於人工智慧的研究其實一直是有些牴觸的,當人工智慧與戰爭聯絡起來,你能想象的到會出現什麼可怕場景嗎?

    專家警告,南韓大學現在正在研發秘密機器人軍.隊,它們可能是一種可摧毀人類的武器。這樣的研究就像“潘多拉魔盒”,後果不可想象。

    目前已經有來自30個不同國家的50多位學者簽字抵制這個機構,他們認為人工智慧和自動化殺.人機器人不應該變為戰爭武.器。把AI用於“殺.人”很可能引起第.三.次世界大戰。

    南韓在2月份時啟動了這個專案,來自澳洲的新南威爾士大學的教授Toby Walsh寫了這封抵制信,並寄給南韓科學技術院院長Sung-Chul Shin教授。他在信中寫道:“南韓科學技術院做出的這個決定讓人遺憾,我們公開宣告,將抵制與南韓科學技術院所有合作,直到你們能確保不會開發這樣的自主武器。”信裡還寫到:“如果開發出這樣的武器很可能引發第三次世界大戰。這樣的武器會是最恐怖的。”

    南韓科學技術院釋出了一份宣告,Shin Sung-chul院長保證不再開發“天網”啟發的機器人。“我們無意開發致命的自主武器系統或殺.人機器,我們非常重視人權和道德標準,我們會研發出為世界服務的專案。我再次重申,Kaist不會進行任何嚴重違反人類尊嚴的研究活動。”

    像這樣的研究機構有多少個,我們真的不知道。如果有一天這樣的人工智慧機器人被研究出來人類又該何去何從呢?

    對於機器人的研究並沒有明確的相關條例,我想很快聯合國會出臺這樣的政策,人類研究機器人本來是出於為人類服務、幫助人類的想法,如果變成武器肯定會很可怕。

  • 2 # 華智觀點

    如果你曉得人類的構造有多複雜就不擔心這個了。到目前為止,人類依然無法脫離借住細胞來製造一個新細胞,最多能在實驗室用元素合成幾種簡單的氨基酸。

    而人類的思維能力複雜程度,遠遠高於我們現在認知的電腦思維。

    人類在機器人面前受傷是難免的,滅絕不可能。

  • 3 # 匯惠會

    導致人類滅亡的因素總結為以下5點:

    第一:人類自身,所謂的智慧機器人滅亡人類是不存在的,就像核武器可以滅亡人類一樣,你能說是核武器滅亡了人類,其實究其本源是掌握相應物件的人在滅亡所謂的敵對或者異己不小心失控了就連自己一起給收拾了;

    第二:人類自身,世界的發展帶來的方方面面的破壞,環境、生態的荷載能力以及細菌病毒的進化都可以導致人類滅亡,因為畢竟人類的環境和病毒前瞻應急還沒發展到一定的高度;

    第三:還是人類自身,盲目的野心、民族主義、大國主義會導致很多對抗與滅亡風險;

    第四:外星文明,被星際殖民的滅亡;

    第五:宇宙環境,宇宙爆炸、太陽噴發、行星撞擊等方面的宇宙環境風險不可低估。

    個人觀點僅供參考!

  • 4 # 田白魚

    導致人類滅絕的會不會是人類自己發明的機器人。 這個問題不好回答,我想用反推的方式來推理一下。 如果人類發明的機器人。要滅絕人類那麼需要什麼條件?

    一、數量的優勢。隨著科技的發展,智慧機器人會變得越來越普遍。可能會發展到如現在的手機一樣。為一部或者幾部,用於服務員人類。

    二、自我的思維。在機器人的生產和發展過程中,人類肯定會。不知道安全,所以會設定禁止傷害人類的程式指令。機器人想做到滅絕人類那麼他必須要學會欺騙。所以這就需要機器人透過被設定的千萬種指令。而產生自我思維

    三、掌控武器。現在全球大規模性殺傷武器都需要網路。如果機器人想滅絕人類。它必須要掌握全球的網路。那麼這個滅絕人類機器人肯定是一個自己產生的網路病毒。

    四、自我修復功能。無論機器人的數量有多少?如果不能自我修復,那麼在與人類的戰鬥中他必然是不斷的減少隨著時間的推移,機器人的數量最終會變成零。你機器人?如果想要完全滅絕人類必須要有自我修復或者自我製造功能

  • 中秋節和大豐收的關聯?
  • 雲中君成最強刺客!玩家衝向國服,這兩個技巧很重要,打法如何?