1月28日消息,谷歌今日宣布在人工智能領域的重要進展:開發(fā)出一款能夠在圍棋中擊敗職業(yè)選手的程序——AlphaGo,該程勛能夠通過機器學習的方式掌握比賽技巧。
計算機和人類競賽在棋類比賽中已不罕見,在三子棋、跳棋和國際象棋等棋類上,計算機都先后完成了對人類的挑戰(zhàn)。但對擁有2500多年歷史的圍棋而言,計算機在此之前從未戰(zhàn)勝過人類。圍棋看起來棋盤簡單、規(guī)則不難,縱橫各19九條等距離、垂直交叉的平行線,共構成19×19(361)個交叉點。比賽雙方交替落子,目的是在棋盤上占據(jù)盡可能大的空間。
在極簡主義的游戲表象之下,圍棋具有令人難以置信的深度和微妙之處。當棋盤為空時,先手擁有361個可選方案。在游戲進行當中,它擁有遠比國際象棋更多的選擇空間,這也是為什么人工智能、機器學習的研發(fā)者們始終希望在此取得突破的原因。
就機器學習的角度而言,圍棋的計算最大有3361種局面,大致的體量是10170,而已經(jīng)觀測到的宇宙中,原子的數(shù)量才1080。國際象棋最大只有2155種局面,稱為香農(nóng)數(shù),大致是1047。
傳統(tǒng)的人工智能方法是將所有可能的走法構建成一棵搜索樹 ,但這種方法對圍棋并不適用。此次谷歌推出的AlphaGo,將高級搜索樹與深度神經(jīng)網(wǎng)絡結合在一起。這些神經(jīng)網(wǎng)絡通過12個處理層傳遞對棋盤的描述,處理層則包含數(shù)百萬個類似于神經(jīng)的連接點。
其中一個神經(jīng)網(wǎng)絡“決策網(wǎng)絡”(policy network)負責選擇下一步走法,另一個神經(jīng)網(wǎng)絡“值網(wǎng)絡”(“value network)則預測比賽勝利方。谷歌方面用人類圍棋高手的三千萬步圍棋走法訓練神經(jīng)網(wǎng)絡,與此同時,AlphaGo也自行研究新戰(zhàn)略,在它的神經(jīng)網(wǎng)絡之間運行了數(shù)千局圍棋,利用反復試驗調整連接點,這個流程也稱為鞏固學習(reinforcement learning)。通過廣泛使用Google云平臺,完成了大量研究工作。
AlphaGo所使用的神經(jīng)網(wǎng)絡結構示意圖
征服圍棋對于谷歌來說有重要意義。AlphaGo不僅是遵循人工規(guī)則的“專家”系統(tǒng),它還通過“機器學習”自行掌握如何贏得圍棋比賽。谷歌方面希望運用這些技術解決現(xiàn)實社會最嚴峻、最緊迫的問題——從氣候建模到復雜的災難分析。
在具體的機器訓練上,決策網(wǎng)絡的方式是輸入人類圍棋專家的比賽,到系統(tǒng)可以預測57%人類行動為止,此前最好成績是44%。此后AlphaGo通過在神經(jīng)網(wǎng)絡內(nèi)部進行比賽的方式(可以簡單理解成和自己下棋),開始學習自主探索新的圍棋策略。目前AlphaGo的決策網(wǎng)絡可以擊敗大多數(shù)具有龐大搜尋樹的最先進的圍棋程序。
值網(wǎng)絡也是通過自己和自己下棋的方式來訓練。目前值網(wǎng)絡可以評估每一步棋能夠有多大勝算。這在此前被認為是不可能的。
實際上,目前AlphaGo已經(jīng)成為最優(yōu)秀的人工智能圍棋程序。在與其他程序的對弈中,AlphaGo用一臺機器就取得了500場的勝利,甚至有過讓對手4手后獲勝的紀錄。去年10月5日-10月9日,谷歌安排AlphaGo與歐洲圍棋冠軍Fan Hui(樊麾:法國國家圍棋隊總教練)閉門比賽,谷歌以5-0取勝。
AlphaGo與歐洲圍棋冠軍樊麾的5局較量
公開的比賽將在今年三月舉行,AlphaGo將在韓國首爾與韓國圍棋選手李世石九段一決高下,李世石是近10年來獲得世界第一頭銜最多的棋手,谷歌為此提供了100萬美元作為獎金。李世石表示很期待此次對決,并且有信心獲得勝利。
值得一提的是,上一次著名的人機對弈要追溯到1997年。當時IBM公司研發(fā)的超級計算機“深藍”戰(zhàn)勝了國際象棋冠軍卡斯巴羅夫。不過國際象棋的算法要比圍棋簡單得多。國際象棋中取勝只需“殺死”國王,而圍棋中則用數(shù)子或比目的方法計算勝負,并不是簡單地殺死對方棋子。此前,“深藍”計算機的設計人2007年發(fā)表文章指出,他相信十年內(nèi)能有超級電腦在圍棋上戰(zhàn)勝人類。
此外,AlphaGo的發(fā)布,也是Deep MInd在2014年1月被谷歌收購以來首次發(fā)聲。在被收購之前,這家位于倫敦的人工智能領域的公司還獲得了特斯拉和SpaceX創(chuàng)始人馬斯克的投資。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結構"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構聯(lián)合提出SparseLoRA技術,通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。