摘要:
如果有合適的條件,完全可能有其他的生命進化路徑,以及更紛歧樣的進化結果。
AlphaGo三番棋對決中的第二盤昨日打響,最終柯潔不敵阿爾法圍棋,第二盤告負,目前雙方比分0:2。
隨后搜狗公司CEO王小川在知乎上發布評論文章稱,2017人機大戰的意義在于它重演一部進化史,重新認識智慧的界限。王小川體現,“AlphaGo2.0 告訴我們:如果有合適的條件,完全可能有其他的生命進化路徑,以及更紛歧樣的進化結果。”
王小川認為,AlphaGo 2.0與1.0已大不相同,新的算法對計算資源開銷極小,把當前棋局輸入神經網絡,電流流過,輸出就是最佳的走棋方案。王小川猜測,有可能僅僅依靠一個 GPU 工作,每一步棋消耗的能源接近人的大腦。
在王小川看來, AlphaGo2.0已經完全拋棄掉人類這兩千年來進化的圍棋經驗,另尋他徑,僅憑兩臺機器自我對弈中學習和進化,最終不但趕超了人類進化的速度,還發展出一套截然差別的下棋方法,而且更加接近完美的狀態,實現了對人類的碾壓,重演了一部圍棋的進化史,并且得出了與這兩千年來差別的進化結果。
附王小川評論全文:
該來的終于來了。
一年前 AlphaGo 發布,看完論文后我就在知乎上發文預測機器會完勝人類。好些行業伴侶不相信,為此我收了很多“智商稅”,之后微信發紅包一直發到春節才發完。此外我還立了兩個斷言:一個是 Google 很有可能再研發出 AlphaGo 2.0,開脫“監督學習”,不再需要人類下圍棋的歷史數據,而是只通過“增強學習”,兩臺 AlphaGo 自我對戰學習如何下棋,并達到登峰造極的地步。從公開的資料判斷,此言中了。這意味著什么呢,又有什么看點呢?
技術重大提升:和 1.0 原理大差別,更接近于人
AlphaGo 1.0 是巧妙地混合了三種算法:蒙特卡洛樹搜索 + 監督學習 + 增強學習。其中蒙特卡洛樹搜索是一種優化過的暴力計算,比 1997 年深藍的暴力計算更聰明。而這里的監督學習,是通過學習 3000 萬步人類棋譜,對六段以上職業棋手走棋規律進行模仿,也是 AlphaGo 獲得突破性進展的關鍵算法。而增強學習作為輔助,是兩臺 AlphaGo 從自我對戰眾中學習如何下棋,據悉對棋力提升有限。
按照公開資料推測,此次 AlphaGo2.0 的技術原理與之前有著巨大差別:
1. 放棄了監督學習,沒有再用人的 3000 萬局棋譜進行訓練。這本是 AlphaGo 最亮眼的算法,也是今天主流機器學習不成制止的核心條件:依賴于優質的數據,在這個特定問題下就這么被再次突破了。
2. 放棄了蒙特卡洛樹搜索,不再進行暴力計算。理論上,算法越笨,就越需要暴力計算做增補。算法越聰明,就可以大大減少暴力計算。從 AlphaGo 2.0 的“馬甲”Master 的歷史行為看,走棋非常迅速,約在每 10 秒鐘就走棋一步,如此速度很可能是放棄了暴力的計算。
3. 極大地強化了增強學習的作用,之前敲邊鼓的算法,正式成為扛把子主力。想想看有多勵志:兩臺呆子機器,遵守走棋和獲勝規則,從隨機走棋開始日夜切磋,總結經驗,不停批評和自我批評,一周后終成大器。
在這樣的算法下,AlphaGo 2.0 對計算資源開銷極小,把當前棋局輸入神經網絡,電流流過,輸出就是最佳的走棋方案。我猜測如此算法下,有可能僅僅依靠一個 GPU 工作,每一步棋消耗的能源接近人的大腦。
最大看點: AlphaGo2.0 棋風完全脫離人類經驗
本年年初,AlphaGo 化身 Master 連勝人類頂尖棋手 60 局。在圍棋領域,機器完勝已經釀成公認的定論。這導致很多人開始問:這次人機大戰還有意義嗎?我們的關注點不再是機器是否會贏——而是機器將用什么姿勢戰勝人類。
AlphaGo 學習了 3000 萬步人類棋譜,走棋風格也近似于人。在角逐現場,偶有 AlphaGo 走棋和人的經驗不符合,就被評為“愚蠢”,只是在中盤之后發現機器漸漸局面占優最終獲勝,為了自圓其說解讀為“AlphaGo 中盤逆轉”,,前兩局莫過如此。第三局開始評論者長了教訓,開始尊稱 AlphaGo 為“阿老師”,有了欣賞和敬畏的心態。這帶給圍棋界很大的沖擊,以前大家認為正確的東西,其實是不正確的。
柯潔曾經評價說:“AlphaGo 出現,很多理論都被推翻,再看以前定式變得好笑,虧那么多目就不再是兩分。”人類通過數千年實戰,總結了圍棋理論,然后計算機告訴人類:這些全都是錯的。現在在很多角逐上,人類棋手已經開始向機器學習,模仿 AlphaGo 的下法,棋圣聶衛平也曾體現“理論被顛覆了”。