揭密AlphaGO開發歷程!Google:要創造卓越的智慧科技

記者洪聖壹/首爾報導

針對此次的人工智慧科技 AlphaGO 與天才棋王李世乭的對決,稍早DeepMind 執行長 Demis Hassabis接受臺灣中國媒體訪問時,透露自己開發 AlphaGO 的初衷與未來願景目標並不是鎖定在 2020 年,而是更長遠的未來。

Demis Hassabis 爲 DeepMind 共同創辦人暨執行長,DeepMind 作爲受神經科學啓發的人工智慧公司,於 2014 年 1 月被 Google 收購,傳聞收購金額達 4 億美元,成爲迄今最龐大的歐洲收購案

Demis 目前擔任 Google DeepMind 的工程部副總,帶領 Google 團隊積極投入人工智慧的研發。Demis 時候是一個西洋棋神童,僅僅 13 歲棋藝已達大師等級。當時 Demis 的棋藝僅次於國際特級大師波爾加·朱迪(Polgár Judit),爲世界段位第二高的棋手。在提前兩年完成 A-Level 考試之前,17 歲的 Demis 已編寫好了銷售超過數百萬的「主題公園」(Theme Park)模擬遊戲

談到開發 AlphaGO 的初衷,DeepMind 執行長 Demis Hassabis 提到他小時候很喜歡西洋棋,到了大學時期朋友瘋狂玩圍棋,那時候用的就是 IBM 開發的深藍,那時候就覺得要開發一個可以學習下棋的機器。因此這個概念從 20 年前就有了,但是直到兩年前纔開始做。

目前 AlphaGO 的開發團隊一共有 9 個人,3 個人是 Google 內部員工、3 個人是DeepMind、另外三位則是業界人士,而之所以會從中國的圍棋出發,Demis Hassabis 表示,是因爲中國的規則電腦比較容易懂、容易吸收。

而 AlphaGO 以一套名爲「蒙地卡羅」的運算技術基礎,搭配類神經網路,從世界棋手、人類專家技術細節,進行像是象棋、圍棋等棋局對弈的研究,然後透過兩個階段的機器學習,第一段是人工喂資料給電腦去運算,第二階段是給予電腦在比賽過程中去學習的程序,不管是贏還是輸輸,每次比賽過程都會把經驗學進去。這個第二階段採用的技術,叫做類神經網路,主要是透過雲端運算的方式,進行深度學習,然後進行「策略網絡 (Policynetwork)」與「價值網絡 (Valuenetwork)」的分析,程序就像人類的大腦一般,會有自己的思考模式,這也是爲什麼 AlphaGO 可以持續進化。

Demis Hassabis 表示,AlphaGO 的正式比賽只有在 2015 年 10 月跟歐洲圍棋冠軍對弈過,會找專業的人的原因,主要是希望能夠把AlphaGO的名聲流傳下去,把它創造成一個事件,讓大家記住這個事件,而在李世乭之後,不排除會找其他更多新秀來對戰。

Demis Hassabis 強調,人類學習跟機器學習的差異都是一種演算的方式,人類或許可以做得更好,因爲他們不用去過濾、處理這麼多資料,而且可以從其他人指導,但是 Deep mind 只能自我學習,自己去想像可能發生的狀況。因此他認爲,或許 10 月份的 AlphaGO 打不過李世乭,但是經過機器學習的模式與調整,現在的AlphaGO反應已經更快、更聰明,所以要讓大家期待明天的比賽。

談到 DeepMind 的終極目標,Demis Hassabis 表示,首先是要創造出更卓越的智慧科技,當然,從 Google 角度就是要要聰明解決人們碰到的問題,幫助人類打造更好的生活環境