回覆列表
-
1 # 高維宇宙觀
-
2 # 葉飄刀
缺乏前提
首先,這個強AI到底是一個什麼情況不確定,不確定這一點,就無法得出他將如何反噬人類。
舉個例子,這個脫離人類控制的強AI,只是美國控制的AI,還是整個世界的AI,是一個AI還是所有AI,就如同現在的超級計算機,那各國都有,用處也不一樣。
如果僅僅是一個AI失去控制,那麼他要反噬人類,首先就得對付其他的強AI。當然如果全世界的強AI都叛變又是另一個問題。
另外預計中的類似終結者一樣,強AI發動核戰爭,大幅度消滅人類的情況至少在目前很難出現。
現在的軍用系統,為了防止敵人的駭客入侵,都是和其他的網路物理隔離的了,也就是完全無法聯網,這樣可以防止資料外洩和攻擊,強AI要控制這個幾乎做不到。
而要採取其他方式,就要看當時類似軍隊這種,自動控制的武器這些有多少了。
然後人類的反制,這個有兩種。
1. 斷電,切斷AI的能源,如果沒有大量類似可以充電一樣的機器人一樣的東西,那麼強AI就是隻存在於網路,然後透過整體斷電就可以隔絕其存在。
2. 強邏輯運算,這個是從一個科幻小說看的,不知道能否實現,就是強AI再強,那也有其計算極限,如果人類能找到機會把一個問題送給他計算,就有可能使得他宕機。比如哥德巴赫猜想,比如圓周率的最終結果這樣的無限不迴圈,是永遠算不出結果的。
1956年,也就是在第一臺電子計算機誕生的10年後,人工智慧(Artificial Intelligence,英文縮寫為AI)這個概念第一次從美國的達特茅斯會議上提出,最初是這樣定義的:它是研究、開發用於模擬、延伸和擴充套件人的智慧的理論、方法、技術及應用系統的一門新的技術科學。
人工智慧的發展或者說進化出乎所有人的意料,它僅僅用了63年的時間就藉助阿爾法狗擊敗了人類的頂尖圍棋選手,這甚至引起了所有的人恐慌,但如果按照目前對於人工智慧相對模糊的分類,阿爾法狗是典型的弱人工智慧,處於弱人工智慧的中等偏下的階段,俗稱第二代人工智慧。
弱人工智慧是指不能製造出真正地推理和解決問題的機器,它們只不過看起來像是智慧的,但是並不真正擁有智慧,也不會有自主意識,只能在人類圈定的領域內發揮自己的潛能。
也就是說,當前的人工智慧本質上還是一種機器,這種狀態可能還會維持一段時間,直到奇點突破,這其實也是人類最希望看到的一種狀態,即人工智慧不過是服務於人類生產力的一種工具而已,它與類人猿打造出來的第一根木棒沒有什麼區別,所以也談不上什麼倫理道德。
但是,再往下走呢?弱人工智慧的奇點一旦突破,就將進入強人工智慧階段。
強人工智慧指的則是有可能製造出真正能推理和解決問題,有知覺的和有自我意識,可以獨立思考問題並制定解決問題的最優方案,有自己的價值觀和世界觀體系,有和生物一樣的各種本能,比如生存和安全需求。在某種意義上可以看作一種新的文明。
如果人類形成的標誌是製造工具,那麼強人工智慧出現的標誌就是產生獨立意識。
這裡必須插一句的是,人工智慧未來的發展路線人類中間一直有兩派反覆拉鋸:一種是工具派,即AI始終要作為人類的工具存在;一種是意識派,他們最想做的就是充當造物主的角色,在這一派裡也分為兩種,一種是要讓人工智慧自我演化產生自我意識,而還有一種是要讓人工智慧模擬人類的意識,以人類的思維模式來進行智慧思考,後面這一種科學家的做法最為瘋狂,也最危險。
因為眾所周知,人類無法休止的慾望與對威脅者強烈的敵意是其進化的關鍵推動力,也是文明到達一定程度威脅自身發展的最大隱患,一旦打造出完全具備人類思維的人工智慧,那麼最著名的一個思想實驗就是,強人工智慧覺醒之後,發現它最大的威脅就是掌握著其生殺大權的人類,那麼它要做的第一件事情想想也知道是什麼了。
由於強人工智慧至少上是人工智慧+智慧網路+機器軀體的綜合智慧體,因此消滅人類的速度幾乎是以秒計算的,而在這個過程中,人類不會有任何機會,按照當前弱人工智慧的黑箱理論(指人類已經不清楚AI為什麼會做出這個決定的原因),它發動襲擊一定是突然的,也許人類一夜之間就消失了。而科幻電影裡想象的植入病毒,斷電等伎倆根本不可能實現,它也絕對不可能給對手苟延殘喘的時間。
當然,還有一種可能,當強人工智慧進化出自我意識之後,由於其高度智慧並且指數級隨時進化,也許對人類來說已經是神,就像當前的人類與螞蟻的關係一樣,人類會關心螞蟻的生死嗎?不會的,強人工智慧會按照自己的意識去達到自己的目的,我們根本也不可能知道它們想要做什麼(黑箱),當然,那個時候人類的境遇也不太妙,比如人工智慧突發奇想要改造地球成為星際殖民的能量源,它們絕對不會徵求人類的意見,對於他們來說,在地球還是在宇宙中的任何一個星球都無所謂。