回覆列表
  • 1 # 天涯棋人

    現在這個答案已經出來了,創造出AlphaGo的Deepmind公司已經公佈了AlphaGo左右互搏的50盤棋譜,對於這50盤棋譜,不僅僅是業餘棋手看不懂,職業高手中看不懂的大有人在,在這裡僅發一個圖就能足以說明問題,只要你略懂圍棋,就會發現,AlphaGo下的圍棋跟我們人類下的圍棋完全不同了。看看圖中的白10、白12、白14、白16著法,這還是圍棋嗎?

    可見,AlphaGo在擺脫了人類棋譜之後,已經達到人類高手們難以企及的境界,至於它們為何要這樣下,是不是建立在海量的形勢判斷和區域性計算基礎之上,我們都不得而知,但可以肯定的是,它們的著法代表著最先進的圍棋,因為人類最強棋手柯潔九段剛剛在“人機大戰”三番棋中被AlphaGo完虐。

    人類經過數千年的思考和積累,終於對圍棋有個比較全面的瞭解,但人工智慧卻在短短時間裡全部破解了圍棋秘密,它們就像來自遙遠的未來,要領先我們人類N個世紀。在今天,我們人類已遠非它們的對手。

  • 2 # 成釗1

    結果呢?沒結果嗎?我猜啊,初始化兩個人工智慧旗鼓相當,後手贏的機率大,之後下一盤勝負易主,因為人工智慧的學習功能,還有原先勝利方固有套路因為勝利次數加一,所以權重加大,思路大體依賴於上一盤的思路,原先失敗方拋棄舊有思路,上一盤對手套路針對性權重加強,贏面更大。我的結論是,第一盤後手贏,以後每一盤都勝負易手,到50盤左右不分上下,改變規則,誰後手誰贏。

  • 3 # 神之一手

    我們說的下圍棋的人工智慧,其實是引入了機器學習技術的第三代計算機圍棋程式。而在程式進行訓練的過程中使用的強化學習技術,就是“兩個人工智慧互相對戰”。這種訓練的結果就是,人工智慧左右互搏,越練越強。

    雖然所有AlphaGo的版本都使用了這種“左右互搏”的訓練方式,但現在比較有代表性的程式是最新的版本AlphaGo Zero。該版本只用強化學習而不用監督學習,它所有下棋的知識都是從左右互搏的過程中自己摸索出來的。

    對於AlphaGo Zero的強化學習過程,deepmind的首席科學家大衛·席爾瓦有一個影片進行了簡單的介紹,其中他說了這麼一段話:

    他的這段話很有啟發性:“AlphaGo的對手總是和它的水平一致,所以它從非常基礎的水平開始,從非常隨機的招式開始。但在學習過程中的每一步,它的對手,或者叫陪練,都正好被校準為匹配其當前水平。一開始,這些對手非常弱,但是之後漸漸變得越來越強大。”

    這就詳細的描述了AlphaGo Zero左右互搏式的強化學習過程:讓兩個水平差不多的人工智慧互相下,會互有勝負,然後程式會在這種訓練方式中不斷的學習和進步。其實人類學棋也是這樣的。

    所以人工智慧對人工智慧還能有啥結果?實力強的能贏實力弱的,實力差不多的就會互有勝負。

    其實,每年都有計算機圍棋的世界比賽,來自世界各國的人工智慧程式互相比賽,最終決出一個冠軍。值得注意的是,到了第三代計算機圍棋程式才能稱為人工智慧。2015年AlphaGo V13.0剛戰勝樊麾之後,訊息還沒公開,當時那年的世界計算機圍棋比賽的冠軍程式還是第二代程式,沒有使用機器學習,實力還差的很,被人類棋手連笑打到讓6個子。

    其實,當時的AlphaGo在訓練中也和那些程式下了,結果在讓四個子的情況下AlphaGo勝率接近100%

  • 4 # 渝頓禪詩2019

    第一顆黑子放在棋盤後,白子智慧計算了三天後,沒下一子,確定認輸, 研究人員輸入貼目設定,對黑有利,白沒放一子,仍然確定認輸,對白有利當白放第二手白子時,黑認輸,然後大家又用智慧自己計算最佳貼目,當黑放第一子後,白宣佈和棋,黑確認,最後研究者總結(無趣)

  • 中秋節和大豐收的關聯?
  • 美工的前途在哪裡呢?