吳恩達:神經網絡模型將替代傳統算法,真的做到深度學習

百度首席科學家吳恩達在未來論壇上發表了演講,會後36氪對他進行了【獨家採訪】。

神經網絡模型數據潛力更大

我們都知道,在海量數據時代深度學習爲人工智能帶來了新的機會。這些機會集中在三個地方:文本、圖片和語音識別。

吳恩達提到,人工智能有一個正循環鏈條。有了好的產品,可以吸引更多的用戶,然後會生成海量的數據,接着數據又能帶來更爲優秀的產品。但是,如果採用傳統的人工智能算法,數據增長到一定體量,算法效果會遇到瓶頸。但如果運用新的深度學習算法,隨着數據的增長,算法的效果可以持續提升。

什麼神經網絡模型呢?以下是他舉的例子

7年前,我讓學生利用當時最好的算法完成一項簡單任務——在一張放了很多餐具的圖片中判斷哪個是杯子結果沒有做到。基本上柱狀工具都被識別成了杯子。

雖然在人的眼裡,看到的是這些物品外形,但是在計算機的眼裡,他們得到的信息只是照片上每一個像素點上代表色彩數字,利用數字譜與其他的圖像對比。再舉一個語音識別的例子,過去我們將聲音分解爲不同的音調音素等等,希望通過數據解碼來識別一段對話,但得到的結果還是與自然語音本身不同。

人腦是怎麼學習的呢?這裡要聲明,雖然叫做神經網絡模型,但並不是真的讓算法模仿人的大腦工作,因爲我們並不確定大腦到底如何工作的,只是希望接近這種機制。以上面的杯子爲例,我們只是提供大量的杯子圖片,讓計算機來發現這些樣本具有怎樣的特徵,然後它就可以進行判斷了,和我們平時學習的方式很相似。

這件事過去做不了,所以需要依賴傳統的數據解碼算法,但現在對數據的存儲和計算都達到巨量級,能夠實現海量樣本對照。

語音識別將推動手機革命

越來越多的人正在使用語音識別,深度學習語音識別系統的準確率比傳統方式提升了很多。

移動端應用場景下,語音交互與手指輸入相比,是一種更自然的人機交互方式。我們可能不再需要在手機上安裝那麼多的Apps,你只需要跟手機進行語言交互,告訴它你需要什麼,他就能爲你連接服務。我相信語音將會推動手機的革命。想象一下,未來我們將圍繞語音界面來重新設計移動產品,重新定義人與手機的交互界面。

在這裡,吳恩達說了一句模棱兩可的話:接下來,我們會爲你帶來更好的智能手機。不知道該理解爲百度手機重出江湖,還是僅僅泛指所有的手機商呢?

不用擔心機器人會佔領世界

人工智能技術仍然存在挑戰。比如,有的國家使用AI技術威脅到了人的權利(腦補疑犯追蹤),這是很嚴肅的道德議題。但即使不存在AI,這樣的情況也是存在的。至於說AI達到了比人更聰明的程度,甚至可能會控制我們的世界。我認爲這並不是目前急需關心問題。機器統治世界不會很快發生,或許100年後我們才需要擔心這個問題。

即使我們說深度學習算法具有自我學習的能力,但也不需要爲此擔心。大量的神經網絡算法中的模型訓練,即機器學習的過程,都是有監督的訓練。這種訓練方式應用在語音識別、圖像識別中時,效果是非常好的。但如果站在機器可能統治人的角度,這是完全不同的事情。

[36氪原創文章作者: 廚子劍客]