公司新聞

公司新聞

了解國興智能的最新動態

人工智能的漫漫長路,這些人功不可沒
2017-02-06
熱點資訊
圖片來自123rf

時(shi)至春季,人工(gong)智能的春天也來了(le)。

從去年 AlphaGo 與李世(shi)石的人(ren)機(ji)大戰之后(hou),人(ren)工智能(neng)瞬間成為科技行業最為耀眼的明(ming)星。除了國(guo)內(nei)外(wai)的巨頭動(dong)作頻繁,該領域的創業公司也如雨后(hou)春(chun)筍般生長(chang)起來(lai)(lai)。而這背后(hou),自然離(li)不開(kai)讓機(ji)器學會思(si)考的造物主們(men)。本(ben)文,我們(men)就來(lai)(lai)認識(shi)一(yi)些將人(ren)工智能(neng)夢想(xiang)變成現實的功臣們(men)。

阿(a)蘭⋅圖(tu)靈(ling)

圖片來源BBC

二戰(zhan)時阿蘭⋅圖(tu)靈在布萊切利公園擔(dan)任(ren)解(jie)碼專(zhuan)家,于(yu) 1940 年(nian)創造出(chu)可以破譯德軍(jun)密報的(de)(de)機(ji)器(qi) Bombe,為盟軍(jun)的(de)(de)勝利立下(xia)了汗馬功(gong)勞。戰(zhan)后(hou),他任(ren)職于(yu)泰丁頓國家物(wu)理研究所,開始從事“自動計(ji)算機(ji)”的(de)(de)邏輯設(she)計(ji)和具體研制工作。1946 年(nian),圖(tu)靈發表論文闡述存儲程序計(ji)算機(ji)的(de)(de)設(she)計(ji),因此被稱為計(ji)算機(ji)之父。

基于計算機,他還思考怎么去(qu)創(chuang)造一個思考的(de)機器(qi)(Thinking Machine)。他說:“要建造一個智能的(de)機器(qi)的(de)話,可能最好的(de)方法就是(shi)用錢買得到的(de)最好的(de)感知(zhi)器(qi)來組建它(ta),并教會(hui)它(ta)使用英文。”

圖靈(ling)(ling)(ling)并沒(mei)有建立起(qi)人工(gong)智能這個領域,但(dan)是他帶來了(le)最初的(de)一些重要的(de)思想元素:我(wo)們要做(zuo)一個會(hui)思考的(de)機(ji)器(qi),里面就需要包(bao)括:視覺、語言。另外,圖靈(ling)(ling)(ling)還提出著名的(de)“圖靈(ling)(ling)(ling)測(ce)試(shi)”,指出如果第三者無法辨別(bie)人類與人工(gong)智能機(ji)器(qi)反應的(de)差(cha)別(bie),則可以論斷該機(ji)器(qi)具備人工(gong)智能。“圖靈(ling)(ling)(ling)的(de)成(cheng)就不得地讓(rang)我(wo)們聯想,是否等到(dao)人類滅亡之后會(hui)留下機(ji)器(qi)人來統治這個世界。”互聯網之父文(wen)特(te)·瑟(se)夫如此評論。正(zheng)是圖靈(ling)(ling)(ling)開啟了(le)人工(gong)智能研究的(de)先河。如今(jin),由美國計算機(ji)協(xie)會(hui)(The Association for Computing Machinery)設立圖靈(ling)(ling)(ling)獎為其最高獎項,以表彰圖靈(ling)(ling)(ling)在計算機(ji)以及人工(gong)智能領域的(de)特(te)殊貢獻。

Terry Winograd

Terry Winograd

Terry 是(shi)人(ren)工(gong)智(zhi)能(neng)界(jie),第一(yi)代把圖(tu)靈的(de)思想(xiang)付(fu)諸(zhu)實踐(jian)的(de)人(ren),他也是(shi)現在在世的(de)計算(suan)機界(jie)最偉大(da)的(de)科(ke)學家(jia)之一(yi)。Terry 不光在人(ren)工(gong)智(zhi)能(neng)領域(yu)做了最重(zhong)要的(de)工(gong)作,而且他后來轉(zhuan)行(xing)去做人(ren)機交互,也把這個領域(yu)重(zhong)新帶(dai)動了起來。

在 Terry 看來,要實現人工智能,需要有這 3 個要素:語法,語義和推理。他說一個人,或者一個機器,要去理解世界,需要去感知。感知以后,需要做的第一件事是對這個世界的結構進行理解,這叫語法的理解(Syntax Understanding)。Terry 說,機器能夠理解語法以后,接下去需要做的就是理解語義(Semantics)。語義就是指含義,語言有語言的含義,視覺有物體、有動作,有視覺的含義。最后,當我們把語法和語義解決以后,智能的機器或者是人主要解決的問題就是統計推理(Inference)這個過程。1970 年,Terry Winograd 教授在麻省理工學院人工智能實驗室創建了 SHRDLU(積木世界),其被譽為微世界程序的最高成就,它能用普通的英語句子與人交流,還能作出決策并執行操作。可以說它既是自然人展示自己如何借助計算機實現自然語言理解的一個經典示例,也是怎樣應用計算機有效進行自然語言處理的一個里程碑。
Geffory Hinton

Geoffrey Hinton

人(ren)類大腦(nao)有數十(shi)億個(ge)神經(jing)細胞,它們(men)之間通過神經(jing)突觸相互(hu)影(ying)響,形成極其復雜(za)的(de)(de)相互(hu)聯系。然而科學(xue)家們(men)并不(bu)能解釋這些具(ju)體的(de)(de)影(ying)響和聯系。神經(jing)到底是如何進行學(xue)習以及計算的(de)(de),對(dui)于 Hinton,這些正是他(ta)(ta)所(suo)關心的(de)(de)問題。他(ta)(ta)不(bu)知(zhi)道所(suo)有的(de)(de)答(da)案,但在他(ta)(ta)的(de)(de)努力之下已經(jing)取(qu)得了進展。

Geoffrey Hinton 被尊稱為“神經網(wang)(wang)絡(luo)之父”,將 Back Propagation(反(fan)向傳播)算法應用(yong)到神經網(wang)(wang)絡(luo)與深度學(xue)習(xi),還提出了“Dark Knowledge”概念。他(ta)將神經網(wang)(wang)絡(luo)帶入到研究與應用(yong)的(de)(de)(de)(de)熱潮,這些(xie)人(ren)工神經網(wang)(wang)絡(luo)可以(yi)收集(ji)信息,也(ye)可以(yi)對其(qi)做出反(fan)應。它(ta)們能對事物的(de)(de)(de)(de)外形和聲音做出解釋。它(ta)們對語言的(de)(de)(de)(de)理解也(ye)在進步(bu)。它(ta)們可以(yi)自行學(xue)習(xi)與工作,而不需要(yao)人(ren)為提示(shi)或(huo)者參與控(kong)制。這些(xie)正是它(ta)們與傳統的(de)(de)(de)(de)學(xue)習(xi)機(ji)器的(de)(de)(de)(de)區別。隨著時間的(de)(de)(de)(de)推(tui)移,計算機(ji)能力的(de)(de)(de)(de)發(fa)展,神經網(wang)(wang)絡(luo)也(ye)更加快速,靈(ling)活,高效,得到了很好的(de)(de)(de)(de)擴展。

據了解(jie),早在(zai) 80 年代(dai)初期,當 Hinton 和(he)(he)他(ta)(ta)的(de)(de)同(tong)事們剛(gang)開始這項研(yan)究(jiu)時,那時的(de)(de)電腦還(huan)不夠快(kuai),不足以處(chu)理有關神經網絡的(de)(de)這些龐大的(de)(de)數據,他(ta)(ta)們取得的(de)(de)成(cheng)就是有限的(de)(de)。而當時 AI 普遍的(de)(de)研(yan)究(jiu)方向(xiang)也(ye)與他(ta)(ta)們相反,都在(zai)試圖(tu)尋找(zhao)捷徑,直接模擬(ni)出行(xing)為(wei),而不是試圖(tu)通(tong)過模仿大腦的(de)(de)運作來實(shi)(shi)現。在(zai)這樣(yang)艱難的(de)(de)環(huan)境(jing)下(xia),只(zhi)有 Hinton 和(he)(he)他(ta)(ta)的(de)(de)同(tong)事堅持了下(xia)來,而事實(shi)(shi)則證明他(ta)(ta)們是對的(de)(de)。

Geoffrey Hinton 于(yu) 2006 年在(zai)《Science》上發(fa)表的(de)(de)(de)論文首次提出深(shen)度(du)(du)學習(xi)的(de)(de)(de)主要觀點。從 2012 年取得 ImageNet 競賽的(de)(de)(de)標(biao)志(zhi)性事(shi)件之后,深(shen)度(du)(du)學習(xi)不斷取得一系列的(de)(de)(de)重大(da)進展,解(jie)決(jue)了(le)人(ren)工智能界的(de)(de)(de)盡最(zui)大(da)努力很多年仍沒有進展的(de)(de)(de)問題,除(chu)了(le)在(zai)圖(tu)像識別(bie)(bie)、語(yu)音(yin)識別(bie)(bie)等領域(yu)打破了(le)紀(ji)錄,還在(zai)其他(ta)的(de)(de)(de)領域(yu)擊敗了(le)其他(ta)機(ji)器學習(xi)技術,包(bao)括預測潛在(zai)的(de)(de)(de)藥物(wu)分子的(de)(de)(de)活性、分析粒子加速器數(shu)據、重建(jian)大(da)腦回路(lu)、預測非編碼 DNA 突變對基因表達和疾病的(de)(de)(de)影響。更令人(ren)驚訝的(de)(de)(de)是,深(shen)度(du)(du)學習(xi)在(zai)自(zi)然語(yu)言理(li)解(jie)的(de)(de)(de)各項任務中也有非常可喜的(de)(de)(de)成果,特別(bie)(bie)是主題分類、情感(gan)分析、自(zi)動問答(da)和語(yu)言翻譯。

可以說,正是 Geoffrey Hinton 將(jiang)“深度(du)學(xue)習”從(cong)邊緣課(ke)題變(bian)成(cheng)了谷歌等互(hu)聯網巨(ju)頭(tou)仰賴的核心技術。

Yann LeCun

yann-lecun-660x440

Yann LeCun,Geoffrey Hinton 的博士后學生,也是將 CNNs 應(ying)用(yong)最(zui)成功的人(ren)(CNNs,是一種深度的監督(du)學習(xi)下的機器(qi)學習(xi)模型)。目前(qian)感(gan)興趣(qu)的研究領(ling)域包括人(ren)工(gong)智(zhi)能、機器(qi)學習(xi)、計(ji)(ji)(ji)算(suan)機感(gan)知、機器(qi)人(ren)和(he)(he)計(ji)(ji)(ji)算(suan)神經(jing)科(ke)學。他最(zui)出(chu)名的是對深度學習(xi)和(he)(he)神經(jing)網絡的貢獻,特別是廣泛用(yong)于計(ji)(ji)(ji)算(suan)機視覺和(he)(he)語音識(shi)別應(ying)用(yong)的 CNN(卷積神經(jing)網絡),他第一個把 BP 算(suan)法用(yong)在 CNN 上并(bing)且完(wan)善(shan) CNN 使得它可以(yi)在真實場景中(zhong)得以(yi)應(ying)用(yong),并(bing)在這(zhe)些(xie)主(zhu)題以(yi)及手寫字(zi)體(ti)識(shi)別、圖像壓(ya)縮(suo)和(he)(he)人(ren)工(gong)智(zhi)能硬(ying)件等主(zhu)題上發表(biao)過 190 多份論文。

LeCun 使 CNN 成為(wei)目(mu)前人工智(zhi)能(neng)領域最有用的模型。在(zai)谷歌(ge),卷(juan)積神(shen)經網絡幫助(zhu)他們在(zai)安卓(zhuo)手(shou)機上開(kai)(kai)發語音(yin)識別系統;而(er)百(bai)度則可以利用它開(kai)(kai)發全(quan)新(xin)的視覺搜(sou)索(suo)引擎(qing)。

Yann LeCun 是紐約大學終(zhong)身教授(shou),現任 Facebook 人工智能實驗室負(fu)責(ze)人。LeCun 位列新澤西(xi)州(zhou)的發明家名人堂,并獲得 2014 年 IEEE 神經網絡先鋒(feng)獎、2015 年 IEEE PAMI 杰出(chu)研究獎、2016 年 Lovie 終(zhong)身成(cheng)就獎和來自墨(mo)西(xi)哥 IPN 的名譽(yu)博士學位。

Yoshua Bengio

Yoshua Bengio

Yoshua Bengio 教授是機器(qi)學習大(da)神之一,尤其是在深(shen)度學習這個領(ling)域(yu)。他連同 Geoff Hinton 以及 Yann LeCun 教授,締(di)造(zao)了 2006 年(nian)開始的深(shen)度學習復興。

其他方(fang)面,Bengio 的(de)《a neural probabilistic language model》這篇論(lun)文開創(chuang)了神經網(wang)絡(luo)做 language model 的(de)先河,里面的(de)思路(lu)影響、啟發了之后(hou)的(de)很多基于神經網(wang)絡(luo)做 nlp(自然語音處理) 的(de)文章。

Bengio 博(bo)士后(hou)的導師 Jordan 曾提到:“到目前為止(zhi),在更高(gao)級(ji)的自然(ran)語(yu)言處(chu)理任務(wu)中(zhong),深(shen)度(du)學(xue)習(xi)并未像(xiang)在語(yu)音(yin)識(shi)(shi)別、物體識(shi)(shi)別等任務(wu)上(shang)做到的那樣(yang),顯著(zhu)降(jiang)低錯誤(wu)率。”所(suo)以在 Hinton 提出深(shen)度(du)學(xue)習(xi)概念激活(huo)了整個領域、lecun 發表(biao)了卷積(ji)神經網絡(luo) (CNN) 這(zhe)樣(yang)的階段性突(tu)破(po)成(cheng)果的前提下(xia),Bengio 對(dui)自然(ran)語(yu)音(yin)處(chu)理難題的貢獻是非常有(you)意義的。

Jürgen Schmidhuber

Jürgen Schmidhuber

1997 年,Schmidhuber 博士和他的同(tong)事發表(biao)了一(yi)篇技術論(lun)(lun)文(wen),后來(lai)證(zheng)明這(zhe)(zhe)篇論(lun)(lun)文(wen)對最近的視覺和語音上的快速進(jin)展起到了關(guan)鍵作用。這(zhe)(zhe)個方(fang)法(fa)被稱(cheng)長短期記(ji)憶(yi),簡稱(cheng)為 LSTM。這(zhe)(zhe)個方(fang)法(fa)在剛引進(jin)時(shi)沒有得到廣泛的理解(jie)。它主要(yao)提供(gong)了一(yi)種記(ji)憶(yi)形(xing)式(shi),或者說是一(yi)種神經網絡(luo)的環境(jing)。

就像人類不(bu)會(hui)(hui)每次(ci)都從頭學起(qi)一樣(yang),神經(jing)網(wang)絡的機制中存在循環和(he)記憶的機制,每個輸入的單詞和(he)觀察到(dao)(dao)的像素都會(hui)(hui)被(bei)其理解(jie)。長短時記憶(LSTM)的出現讓這種系統的表現得(de)到(dao)(dao)了(le)很大的提升(sheng),輸出結果瞬間變(bian)得(de)準確(que)。

去年,谷歌的研(yan)(yan)究(jiu)人員(yuan)在這一方面的研(yan)(yan)究(jiu)得(de)到發表,他們使用 LSTM 減少了 49% 的語(yu)音識別錯誤,這是一個飛(fei)躍性進步。

 

相關標簽