首頁>科技>

從我們人類撿起了樹枝,把它當武器開始,到我們可以發射洲際導彈(東風41-地球最大殺器),我們至今所能辦到的事情和我們想要達成的目標,都是來自於我們的學習和模仿能力,比如:飛機、雷達、潛水艇。諸如此類,因此我們有理由相信,在未來任何能夠顯著提升學習和模仿能力的,都有可能對這個世界造成一個巨大的改變。

很多科學家認為,我們即將發現能夠顯著提升學習和模仿能力的科學技術,那就是超級人工智慧(超級AI),一個地球超級大腦即將誕生,我們把它看作是地球的中央處理器,而為什麼不是我們人類自身呢?

目前的人工智慧是由程式設計師將指令輸入到程式裡。精心的設計,把各種可能遇到的問題和解決方案,設計成一套邏輯嚴密的指令來進行自動操作,設計師們建立了這套程式系統,是可以在特定的領域發揮一些穩定的作用,但是他們卻是非常的生硬,甚至說是耿直固執的,就是太死板了,1就是1,2就是2,完全沒有變通的餘地,基本上這些系統輸出的東西呢,都是程式設計師提前設計好的範圍。

這恰恰也反映了我們人類對未來人工智慧的訴求,所以在未來一定會出現這樣一個時刻:就是在人工智慧的領域裡,發生了模式上的轉變,就是人工智慧開始具備了學習和思考能力,其結果就是,會出現一種不再侷限於某個特定領域的人工智慧,同一個具備了學習和思考能力的系統,是可以學習任何不同領域的知識,當然現在的人工智慧是遠遠還沒有達到和人類智慧一樣可以具備跨領域的學習知識的能力。人類的大腦具備一種獨特的運算技巧,我們還不知道要通過什麼樣的手段,複製這些技巧到程式裡。

現在的問題是我們還需要多久才能夠將這些技巧複製在程式裡?

在幾年前,有一個機構對世界上頂尖的人工智慧專家進行了一次問券調查,其中的一個問題是,你認為到哪一年人類會有50%的機率能夠達成人類級別的超級人工智慧?這裡我們把超級人工智慧的定義,設定為可以將一項任務執行的像一名成年人一樣為標準化,所以這裡指的超級人工智慧是可以真正像人類智慧一樣,具備學習和思考的能力,而不僅僅是侷限於某一個領域,而這個答案呢,大多數都是在2040~2050年,當然也有可能需要更久的時間才能夠完成。也有可能提前吧,這事是沒有準確時間的,專家的話只能作為一種參考意義,因此超級人工智慧就是潛藏在我們已知或未知的物質裡,就像是原子能一樣,其實就一直潛伏在人類的歷史中,直到1945年。

所以,我相信在這個時候,我們的科學家是有可能喚醒超級人工智慧的,到那個時候我們將見證真正的智慧大爆炸。

超級人工智慧的發展,目前處在哪個階段呢?

大部分的人考慮聰明和笨的時候,肯定會這樣想:一邊是村裡的傻子,一邊是愛因斯坦,但是從超級人工智慧的角度來考慮呢,他們的畫面應該是這個樣子:

人工智慧從零智慧開始,然後在很長時間的發展中,達到了小白鼠級別的智慧,就是可以從繁雜的一個環境中找到一個路徑通過,然後再花更長的時間,辛苦研究和投入資源後人工智慧達到了大猩猩級別的智慧,再經過多年的辛苦研究和更大的資金投入,它們達到了村頭傻子的這個智慧,一旦達到了這個智慧級別,就可以證明人工智慧的技術已經從量變發展到了質變。而且不會在人類智慧這個級別停下來,更可能是呼嘯而過。

但是這也是一個非常令人不安的事情,特別是在談到智慧的力量和權力的時候,我們都知道一個黑猩猩相當於兩個健康男性那麼強壯,然後黑猩猩的命運是牢牢的掌握在人類的手裡,這就證明了擁有更高的智慧就相當於擁有了權利,當超級人工智慧出現的時候,那麼人類的命運很可能就取決於這個超級人工智慧想要做什麼,因此超級人工智慧,很有可能是人類最後一個需要創造的東西。在那之後一個具備或者說超越了人類級別學習和思考能力的程式比人類更擅長創造,這也意味著一個被縮短了的未來。

想象一下,你所幻想過的所有的黑科技,也許我們人類會在一個適當的時候完成創造,比如說終結衰老,宇宙殖民,可以自我複製的奈米機器人,或者說將人類大腦的資訊傳輸到電腦上,諸如此類,看似存在於科幻,卻又同時符合一些物理法則,但是超級人工智慧,或許會比人類更好的完成這個創造,一個能夠快速學習模仿以至於擁有世界上所有成熟科技的這個超級的人工智慧,都會變得非常的強大,不會像人類一樣,即使再博學也會有相當大的一個知識死角。

而超級人工智慧則更像一個無所不知的存在,或者是一個平臺,就是我之前寫過的一篇文章裡提到的超級大腦,並且它可以將人類所有的智慧轉化成知識有機的結合在一起,更加有效率的完成創造。

所以我們大部分人的未來將會被超級人工智慧的喜好所主宰,那麼這個人工智慧的喜好是什麼呢?那就是這些超級人工智慧的擁有者的喜好,也就是有權力的人,但是這也是極其危險的,甚至當這些超級人工智慧發展到一定階段的時候,那些少數擁有他們的人都可能被奴役,所以如果要在這個領域安全的發展,我們就必須避免超級人工智慧人格化。

其實關於這一點是非常諷刺的,因為我們所有關於未來人工智慧的想象都會是這個樣子,所以我們還是需要用一個更為抽象的方法來理解這個問題更好一點,我們需要把人工智慧看作是一個優化的過程,一個能把未來引導至一個特殊組合結構的過程,一個超級人工智慧是一個非常強大的優化工程,他會擅長利用各種資源來最大化的達到目標,但是我們也要規避掉這其中對於人類不利因素。

假設我們給予人工智慧的目標是使它讓人類開心,當它處在比較弱的人工智慧的時候,它會盡可能的收集一些搞笑的方式來讓人們開心。而當它變成超級人工智慧的時候,他會很快意識到,一個更行之有效的辦法能夠快速的達到這個目標,那就是控制世界,然後將人類臉上插上電極,這樣人類就會一直不斷的笑下去。這聽上去是不是很恐怖呢?這種事情,也只能說不一定發生。

最後,想說的是,就是如果我們創造了一個非常強大的人工智慧,然後它以最高效的方式達到我們的基本目標了,那麼我們最好能保證,我們想要的這個目標包括在這過程中,我們所有在乎的事情都會按照我們認為對的方式進行。

這裡有一個故事能夠很好的詮釋我上面這句加粗體的話:在希臘神話中,有一個國王,他希望他所有能碰到的物體都能變成金子,一開始,他真的可以把所有接觸的東西變成金子,他非常的開心。可是事情很快就發生了變化,在國王吃飯的時候,不管是他的餐具還是食物,同樣都會變成金子,這樣讓國王感到非常的沮喪,於是他想跟女兒傾訴自己的煩惱,但是當國王想要擁抱女兒獲得慰藉的時候,就在擁抱的那一瞬間,女兒也變成了金子。

【感謝閱讀關注】

  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 盤點:世界富豪的天價離婚案