回覆列表
  • 1 # 出國看病專業人更保險

    看人工智慧的階段,你必須先要知道你所謂的人工智慧發展到哪個階段,在人工智慧的初期,ai只需要透過複雜的基礎演算法應對發生的狀況,用圍棋的勝負可以判斷出ai對於基礎演算法的掌握,但是人工智慧的中後期是ai的學習能力,一個優秀的ai絕對不是隻會下下圍棋這麼簡單,他需要承擔更多的內容,就不適合以圍棋的勝負做標準。

  • 2 # 趣物聯

    先給一個肯定的回答,就目前人工智慧的發展來說,如果以圍棋的勝負來判定其能力的高低是可行的。

    咱們可以先看1997年IBM公司的人工智慧“深藍”它在國際象棋上擊敗了國際象棋大師卡斯帕羅夫。

    根據這位大師的回憶,在1985年的時候,他戰勝阿納託利·卡爾波夫之後成為世界國際象棋冠軍。在那一年,他在德國漢堡與世界上最先進的32臺象棋電腦展開了一場車輪戰。比賽結果全盤獲勝。然而,僅僅12年後的1997年,大師需要拼盡全力對戰一臺計算機,當時的《新聞週刊》把這場比賽稱為“人腦的最後防線”。那一年象棋計算機在科技的加持下,實力大增;而大師正好又是國際象棋冠軍,於是代表全人類與機器進行了那場至今仍然家喻戶曉的對決。他與IBM“深藍”計算機下了兩盤棋,一勝一敗。

    大師將計算機的勝利歸功於“深藍”計算機的創造者,許峰雄(電腦“深藍”的設計者,出生於中國臺灣,畢業於臺灣大學和卡內基·梅隆大學),並向他和他的團隊由衷致敬。因為機器的勝利也是人類的勝利(因為人類是機器的締造者),當時的“深藍”能夠在一秒鐘內分析出驚人的200萬個棋位。

    但那個時候有人說,圍棋是人工智慧無法攻克的壁壘,是因為圍棋計算量實在是太大了。選擇圍棋除了這個,還有一個原因。

    1、對於計算機來說,每一個位置都有黑、白、空三種可能,那麼棋盤對於計算機來說就有3的361次方種可能,而宇宙的原子只有10的80次方。下圖是圍棋的複雜程度卷積。

    但令人震驚的是在2016年3月份,Alpha Go以4-1的比分擊敗李世石。而Alpha Go 的演算法也不是窮舉法,而是在人類的棋譜中學習人類的招法,不斷進步,就是我們說的機器學習。而它在後臺,進行的則是勝率的分析,這跟人類的思維方式有很大的區別,它不會像人類一樣計算目數,而是勝率,它會將對手的資訊和招式完全記錄下來,如果對手沒有新的招式來應對,輸的機率是非常之大。

    2、圍棋作為一種開啟智力的“遊戲”,已有3000多年的歷史,人機對弈也有近50年曆史。《大英百科全書》中說:“圍棋,公元前2356年起源於中國。” 自古以來,圍棋備受帝王、將軍和知識分子、神童的喜愛,在國外包括愛因斯坦、約翰納什和圖靈等都是圍棋的愛好者。圍棋的英文就是“Go”,所以人家其實不叫阿爾法狗(只是咱們中文的諧音),真正的叫法是阿爾法圍棋。

    阿爾法圍棋有哪些特別之處?

    阿爾法圍棋是一箇中央處理器(Central Process Unit,CPU)和圖形處理器(Graphic Process Unit,GPU)一起工作的圍棋智慧機器人。

    阿爾法圍棋以神經網路、深度學習、蒙特卡洛樹搜尋法為核心演算法。系統由四部分組成:1、策略網路(Policy Network),以當前局面為輸入,預測下一步的走法;

    2、快速走子(Fast Rollout),目標和策略網路相似,在適當犧牲質量的條件下的加速走法;

    3、價值網路(Value Network),以當前局面為輸入,估算勝率。

    4、蒙特卡洛樹搜尋(Monte Carlo Tree Search),把上述三個部分整合起來,形成完整的系統。

    早期的阿爾法狗有176個GPU和1202個CPU。GPU能夠透過內部極多程序的並行運算,取得比CPU高一個數量級的運算速度。

    阿爾法圍棋(AlphaGo)是透過兩個不同神經網路“大腦”合作來改進下棋。這些“大腦”是多層神經網路,跟那些Google圖片搜尋引擎識別圖片在結構上是相似的。它們從多層啟發式二維過濾器開始,去處理圍棋棋盤的定位,就像圖片分類器網路處理圖片一樣。經過過濾,13個完全連線的神經網路層產生對它們看到的局面判斷。這些層能夠做分類和邏輯推理。

    第一大腦:落子選擇器 (Move Picker)

    阿爾法圍棋(AlphaGo)的第一個神經網路大腦是“監督學習的策略網路(Policy Network)” ,觀察棋盤佈局企圖找到最佳的下一步。事實上,它預測每一個合法下一步的最佳機率,那麼最前面猜測的就是那個機率最高的。這可以理解成“落子選擇器”。

    第二大腦:棋局評估器 (Position Evaluator)

    阿爾法圍棋(AlphaGo)的第二個大腦相對於落子選擇器是回答另一個問題,它不是去猜測具體下一步,而是在給定棋子位置情況下,預測每一個棋手贏棋的機率。這“局面評估器”就是“價值網路(Value Network)”,透過整體局面判斷來輔助落子選擇器。這個判斷僅僅是大概的,但對於閱讀速度提高很有幫助。透過分析歸類潛在的未來局面的“好”與“壞”,阿爾法圍棋能夠決定是否透過特殊變種去深入閱讀。如果局面評估器說這個特殊變種不行,那麼AI就跳過閱讀。

    阿爾法圍棋(AlphaGo)此前的版本,結合了數百萬人類圍棋專家的棋譜,以及強化學習進行了自我訓練。後來它又有了個弟弟AlphaGoZero,其能力則在這個基礎上有了質的提升。最大的區別是,它不再需要人類資料。也就是說,它一開始就沒有接觸過人類棋譜。研發團隊只是讓它自由隨意地在棋盤上下棋,然後進行自我博弈。

    據阿爾法圍棋團隊負責人大衛·席爾瓦(Dave Sliver)介紹,AlphaGoZero使用新的強化學習方法,讓自己變成了老師。系統一開始甚至並不知道什麼是圍棋,只是從單一神經網路開始,透過神經網路強大的搜尋演算法,進行了自我對弈。隨著自我博弈的增加,神經網路逐漸調整,提升預測下一步的能力,最終贏得比賽。更為厲害的是,隨著訓練的深入,阿爾法圍棋團隊發現,AlphaGoZero還獨立發現了遊戲規則,並走出了新策略,為圍棋這項古老遊戲帶來了新的見解。

    一個大腦:AlphaGoZero僅用了單一的神經網路。AlphaGo用到了“策略網路”來選擇下一步棋的走法,以及使用“價值網路”來預測每一步棋後的贏家。而在新的版本中,這兩個神經網絡合二為一,從而讓它能得到更高效的訓練和評估。

    神經網路:AlphaGoZero並不使用快速、隨機的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,來預測哪個玩家會從當前的局面中贏得比賽。相反,新版本依靠地是其高質量的神經網路來評估下棋的局勢。

  • 3 # 萬物智聯

    在目前人工智慧發展階段,用圍棋勝負來判定不同科技公司研發的人工智慧水平,是可行的;

    發展到後期,大部分研發出來的人工智慧,都可以完成該判定標準,就失去了意義,需要使用更先進的判定方式。

    為什麼這麼說?

    首先我們來了解下人工智慧的發展階段:

    人工智慧發展到現在,已經經歷了三個階段:

    計算智慧:解決資料儲存、計算的問題;

    感知智慧:電腦實現能聽會說,能看會認;

    認知智慧:實現理解、思考、學習能力,真正意義上的人工智慧

    目前,我們還走在認知智慧的初期階段,現在的的AI人工智慧,就像一個嬰兒,已經開始有初步的大腦了,但是還缺少“知識”,缺少“知識”,體現出來的能力就比較弱智慧。在這個階段,需要優先讓人工智慧擁有大資料深度學習的能力。

    而圍棋這個遊戲,可以很好地檢測目前階段人工智慧深度學習能力。

    有一個基本共識:圍棋是人類發明的最複雜也是最美的遊戲。圍棋贏的方式是“圈地”,子越下越多,地多者勝。整個下棋過程,落子的可能選擇非常非常多。象棋那種傳統的窮舉方式,已經無法應對如此複雜的下棋方式了。

    為了應付這種類似的複雜情況,需要使用“深度學習”技術,深度學習是機器學習的一個分支,對於待解問題,無需編寫任何專門的程式程式碼,只需要輸入資料,演算法會在資料之上建立起它自己的邏輯——人工智慧透過“深度學習”大資料,可以進行智慧的進化。

    透過最新的人工智慧,谷歌的AlphaGo以千年來眾多棋手在圍棋上積累的經驗棋譜為基礎,進行深度學習,不斷完善,又透過自我模擬比賽,默默地提高自己的段位,達到了人類象棋王者的水平,最終取得勝利。

  • 4 # 繁星落石

    不可行。

    演算法訓練的資料、網路結構、目的各不相同,以圍棋作為評價標準未免太滑稽了。圍棋使用的是強化學習,利用了最佳化過的蒙特卡洛樹搜尋方法,而且需要經過大量的對弈資料或者自我對弈訓練。如此複雜的方式需要大量資料儲存和高效能的計算機,而顯然對於影象識別和簡單NLP的任務來說並不需要這麼複雜的演算法。

    這種評價標準就類似於把所有的奧運會參賽選手叫到一起說我們來比跳高,給你們排個名次,你覺得合理嗎?

  • 5 # 奇襲象棋與兵法

    簡單的講,以圍棋的勝負即軟體是否能夠戰勝人來判定人工智慧的高低是可行的。因為之前這些程式棋力都是比較差的,而今天可以戰勝全世界所有頂尖高手,確實是進步了。

    如果認真些講,其中還有很多問題。其一,現在最先進的程式仍然被認為沒有智慧。其二,目前最先進的圍棋程式阿爾法元,能夠自學圍棋,運用的是“深度學習”,而深度學習,實質是一種統計學的高級別演算法。很多人工智慧方面的專家認為:深度學習把人工智慧領進了死衚衕。也就是說,這個方法今後難以進步了。這樣看來圍棋程式還沒有“觸及到真正的智慧”,就已經前途暗淡。

    真正的智慧運用在“不完全資訊博弈領域”,圍棋象棋都難以讓人們的智慧難以充分發揮。

    敬請關注奇襲象棋!

  • 6 # 52赫茲實驗室

    這個問題我來說說我的觀點:我覺得是可以的

    我不懂圍棋,所以就簡單的說說吧

    圍棋非常複雜,變化數也不可能窮盡,對於現在的AI來說,完全不是問題。

    圍棋的段位高低就是靠比賽勝負判定,而AI可以囊括數千名大師的走法,

    就像《天龍八部》裡面的吸星大法,吸納了很多人的功力,最終達到無敵的境界

    具體來說:

    Alpha Go是根據大量的對弈資料以及一些演算法來實現的,它的優勢在於計算力和記憶力。

    AI在圍棋上實際就是反覆推演人類學習過程,反覆和自己在下棋,再想辦法戰勝自己,無時無刻不在進步。

    可以說時間越久人類越不可能戰勝。

    所以我總結幾個結論:

    1.人工智慧必將贏得傳統行業的人類,在很多領域機器已經超過了人類。

    2.圍棋的未來既然人工智慧可以贏了人類,那麼圍棋就不會那麼高深了

    人工智慧的贏,會改變很多家長對後續圍棋孩子的培養的熱情,可能會出現更多孩子會喜歡圍棋

    3.圍棋賽未來規則也會變了。

    比如人類的圍棋賽自然是隻有人類參加

    非人類的比賽,可以讓人工智慧機器A跟人工智慧機器B兩個玩

    4.人工智慧目前還剛開始,但是已經是一個里程碑,未來人工智慧的水平肯定會越來越高的

    5.當然了,圍棋勝負只能在一定程度上反應人工智慧高低

    人工智慧的種類,功能是多樣化的,比如自動駕駛,交通指揮,醫療,文學創作等等,涉及的領域太廣泛了

    圍棋勝負只是裡面的一小部分的領域而已

    我們在圍棋上被人工智慧打敗,對人類來說也並不是壞事

    人工智慧可能亦師亦友,會讓我們不斷的學習改變

    最後開個玩笑:

    祁同偉說:我要勝天半子。

    天說:你就吹牛逼吧,你連電腦都贏不了。

  • 中秋節和大豐收的關聯?
  • 自己買輛依維柯自己把裡面改裝成房車嗎?