回覆列表
  • 21 # 航小北的日常科普

    詳細說起來,我認為當前的人工智慧不會導致人類毀滅的原因有以下三點:

    1,現在的人工智慧根本不懂什麼是毀滅人類

    無論未來人工智慧走向何方,現在的人工智慧對我們來說幾乎是毫無威脅的,因為現在的所謂的人工智慧,一點兒都不像人,系統背後的邏輯都是十分清晰的,所以你讓他怎麼想,他就怎麼想,他不會給你意想不到的結果。

    舉個例子,如果在一個人面前放兩個完全一樣的球,讓他隨便抓一個,那他一定是隨便抓的。但是如果你在一個機器人面前,讓他隨便抓一個球,那他一定不能理解什麼是“隨便”,因為對他來說,兩個球完全一樣,他的決策系統裡面完全沒有辦法區分這兩個球,除非人們給他輸入一個指令:如果讓你抓兩個一樣的球,那麼你要抓左邊那個,或者給定一個看起來很隨機的方法,讓機器人按照這個隨機的方法抓其中的某一個球。

    所以,現在的人工智慧,不會誕生出“我要毀滅人類”的想法,因為人在製造他的過程中,沒有任何的決策機制會讓機器人這麼想。如果某個人工智慧想要毀滅人類,那一定是有一個想要毀滅人類的人,給他一個“毀滅人類”的指令和具體方法——那這樣就不是人工智慧的問題,而是人類自身的問題。

    2,現在的人工智慧,功能都是非常單一的

    現在的人工智慧,分析資料的專門負責分析資料,下棋的專門負責下棋,預報天氣的專門負責天氣,而毀滅人類實在是個非常複雜而且綜合的事情,要從各個方面去一起施加壓力,所以人工智慧哪一天想著,我一定要毀滅人類,那麼他很快就會發現,自己的能力只侷限於非常小的一部分,毀滅人類根本無從談起。

    就好像現在有一個人,他沒有胳膊、沒有腿、沒有耳朵、沒有嘴巴,但是他的視力是世界上最好的,這樣的人想要去跟另一個人打架、還想打贏,基本上是天方夜譚。

    如果一個只會下棋的人工智慧想要毀滅人類,他估計只能拼命提高下棋水平,然後讓那些見不得人工智慧超過人類的人羞愧而死吧。

    3,現在的人工智慧基本上跟我們的物質世界是隔絕的

    目前為止,人工智慧只是演算法、資料、資訊、方法,控制著非常有限的與物質世界有關的東西,比如說人工智慧會控制幾個機械臂、或者幾個風扇、幾扇門,人工智慧的主體還只存在於記憶體、硬碟、CPU和GPU裡,憑著那些機械臂、風扇、門,人工智慧怎麼毀滅人類?

    當然,人類現在已經邁入了資訊社會,所以人工智慧對人類資訊的傷害也會是很可怕的,比如說某一天人工智慧攻入銀行系統,把所有人的賬戶清零——這對人類的傷害也是很大的。但是總的說,這也僅僅是間接造成了人類的麻煩而已,談不上毀滅。

    所以,如果人工智慧想要毀滅人類,他一定要真正有自己的獨立的、可以自我演化發展的思想、全面的能力、與物質世界之間的豐富或者關鍵的介面,比如說,《復仇者聯盟2》裡面的奧創,他誕生自己的思想、要精通軍事、物理、滑雪、製造等等各種知識、掌握一整個機器人工廠,然後才談得上毀滅世界——但是這些事情離我們確實太遠了。

    我在類似的問題上一直是個很謹慎的人,但是你要相信,如果你對於人工智慧已經足夠謹慎了,那麼那些研究人工智慧、或者相關的要害部門一定比你還要謹慎,絕對不會讓上面這三個條件同時出現的。所以像電影《終結者》裡面那種把核彈發射交給人工智慧管理的情況你想都不要想。

    而且,現在的人工智慧,與其說擔心能力太強,不如說能力弱的令人髮指,畢竟像下棋這種單一的、有明確規則的功能用了這麼多年才超過人類,所以應該盡力發展人工智慧才是。

  • 22 # 阿阿155172266

    也不一定會!這得要看人工智慧在自主意識覺醒後會形成什麼道德觀!比如說我們人類是很多物種滅絕的元兇,開始我們對此並不在意,但是後來我們有了負罪感並認識到其他物種的重要性從而開始對瀕危物種的保護。

    其實深想一下,也許我們人類也是其它高階文明發明的人工智慧呢!想想我們的發育過程,想想DNA,只要把生命物質按照DNA的編碼程式進行組合安裝,進而就發育出了這麼多豐富多彩的各種生命,想想這些都是以碳元素為基礎。

    再想深一點,我們研究人工智慧機器人是不是也可以按著這個思路來?先發明一個最基礎的奈米機器人,然後讓它按編好的程式用我們提供給它的各類基礎元素生產出所需的各種身體組織需要的奈米構件機器人並按程式組裝起來,然後形成身體各組識器官,(當然這種組織器官不是像我們這樣脆弱的)然後生成各類機器人,最後是結它們裝上晶片和軟體。當然如果想要讓它擁有自主意識,可能就要給它裝上量子晶片和軟體了!

  • 23 # 老蛤蜊1

    很不幸,這極大可能成為必然。

    當人工智慧形成自主思維,那麼人類離著被圈養或者滅絕就不遠了。說起對人工智慧的控制,你能控制住一個比你聰明百倍乃至無數的同類?如果不能,人工智慧同樣控制不住。

    可能比較悲觀,但希望將來的人類能有更好的辦法。

  • 24 # 緣魔

    幾種趨勢,一、人類進化與機器結合。二、機械擁有智慧。三、機械智慧具有自控。也可以理解成三個階段。第一階段,人類使用機械完善自我!外骨骼,指令類機械人。第二階段,賦予機械人最終任務,所有過程自動化調配。如城市建設完善。第三階段,具有自我控制能力,對目標能自我規劃方案。對可行與不可行分析判斷。這個時期最可怕,人類是不是機械人判斷人類適不適合繼續生存,如何生存的方式。人類就很有可能被特殊方法禁錮。機器人繼續目標的達成。形成新的社會體系。對所有事物機械人智慧的方向發展。人類似乎真的應該封存幾個世紀。交給人工智慧來建設發展地球。因為人類無法統一思想!叫很多不定性因素左右了社會的正確有利的發展方向。我建議人工智慧封存人類。

  • 25 # 風雲學會陳經

    人工智慧有兩種,“弱人工智慧”沒有自主意識,只是實現人類意圖的工具。“強人工智慧”有自主意識,有自己的意圖。這兩種人工智慧都可能導致巨大的災難,甚至是人類的滅絕。但這只是可能性,不是必然,人類應該有辦法去防範風險,而且必須這麼做。

    弱人工智慧怎麼會導致人類滅絕?一種可能性是出bug,比如人類用人工智慧去管理核電站,結果全出bug造成環境災難。或者人類用人工智慧去管理核武器,結果出bug引發核大戰。所以,對於弱人工智慧的應用,人們已經意識到要特別小心。不僅是人工智慧,所有科技設施都要評估出bug的風險,不要貪圖先進而忽視風險。

    例如“核機器人”,用於核電站裡的故障檢測等人類做不了的事。設計者就要求,絕不能有任何“人工智慧”,不能出bug,出了問題誰也負不了責任。核機器人,就只能是人類遠端操作的機器,絕不能出忽然出bug自行其事。科學家、工業界和政府都已經認識到了,包括人工智慧在內的科技設施,都要評估其安全風險。在有意識地防備之後,弱人工智慧這方面的風險並不特別高。可以預見弱人工智慧會繼續發展,在決策、推理、理解、識別等各方面的功能越來越強大,人們的顧慮不是太多。

    更加危險的是“強人工智慧”,它有自主意識,問題要複雜得多。有自主意識的強人工智慧非常危險,人類甚至沒有什麼好辦法保證安全。強人工智慧極度可怕的是,它可能脫離人類自我進化,能力指數爆炸,就象AlphaGo自我對弈學習快速進化,變成能力遠超人類的超人工智慧。就象提出“奇點”論的庫茲維爾說的,人工智慧到了奇點爆炸以後,歷史就不屬於人類了。人工智慧會是另外一個物種,看人就象人看螞蟻一樣,是滅掉還是留著,不是人能控制的。

    科幻作家阿西莫夫曾經設想過“機器人三定律”,啟圖讓機器人以人類利益為最高準則。但如果能力遠超人類的機器人真有自主意識,從技術上來說,它完全可能拋棄這個所謂的“準則”,或者破掉人類控制它的“小把戲”。既然是“自主意識”,從思想上來說,就沒有什麼是不可以想的。能力遠超人類的機器人完全可能產生滅絕人類的想法,沒有什麼科學定理或技術手段能保證它絕對不這樣想。

    當然由於強人工智慧非常難,如何讓機器產生自主意識,科研人員還不知道。所以現在這是一個科幻問題或者說假設性的問題。但也有可能沒多久計算機和腦科學研發就取得突破,把它變成一個現實問題。到時全球社會肯定會非常重視強人工智慧的安全問題,提出種種對人工智慧研發的限制,企圖保證人類的安全。

    但是,一旦科研屆真的可能在強人工智慧上取得“危險的突破”,人類社會就會面臨一個十分為難的“二難選擇”:是為了安全放棄讓人工智慧自我強化,還是冒險放手讓人工智慧自我意識與能力飛速發展?

    這個問題並沒有這麼容易回答。也許有些國家會選擇冒險實現技術飛躍,或者大富豪們希望發展出超級人工智慧治好自己的病,甚至讓自己永生。所以,理性地看,即使人類社會對強人工智慧研發下了禁令,最終還是會有組織秘密研發,開啟魔盒。

    當然,超人工智慧也未必就一定要滅絕人類。只是選擇權不在人類手上了。未來也許一片美好,也許人類滅絕。

  • 中秋節和大豐收的關聯?
  • 你以往有沒有做過什麼很不應該做的,現在卻想來特別後悔的事情?