摘要:的這項(xiàng)研究,總共生成了篇深度學(xué)習(xí)論文的和代碼,還創(chuàng)建了一個(gè)網(wǎng)站,供同行們眾包編輯這些代碼。來(lái)自印度研究院。目前是印度研究院的實(shí)習(xí)生。
深度學(xué)習(xí)的論文越來(lái)越多了~
多到什么程度?Google scholar的數(shù)據(jù)顯示,2016年以來(lái),人工智能領(lǐng)域新增的論文已經(jīng)超過(guò)3.5萬(wàn)篇。arXiv上,AI相關(guān)的論文每天都不下百篇。
剛剛結(jié)束不久的計(jì)算機(jī)視覺(jué)會(huì)議ICCV上,發(fā)表了621篇論文;2018年的ICLR,有1004篇論文正在匿名開(kāi)放評(píng)審;NIPS 2017共收到3240篇論文投稿。
研究成果極大豐富了,但離應(yīng)用到產(chǎn)品中,還差一大步:把論文轉(zhuǎn)化成代碼。畢竟,作者順便提供源碼的是少數(shù)。
怎么辦?
IBM印度研究院最近公布了一項(xiàng)新研究:DLPaper2Code,顧名思義,這個(gè)程序能夠用深度學(xué)習(xí)技術(shù),將論文轉(zhuǎn)化成代碼。
論文轉(zhuǎn)代碼的過(guò)程
這么神奇?!該不是看到一篇假研究?
坦白講,相關(guān)論文DLPaper2Code: Auto-generation of Code from Deep Learning Research Papers已經(jīng)被AAAI 2018接收為會(huì)議論文。
AAAI是人工智能頂會(huì)之一,明年就是第32屆了,2月2-7日在美國(guó)路易斯安那州的新奧爾良召開(kāi)。百度、京東是大會(huì)的黃金贊助商。
深度學(xué)習(xí)論文自動(dòng)轉(zhuǎn)代碼
這篇論文中指出,由于大部分深度學(xué)習(xí)論文都會(huì)用流程圖來(lái)表示神經(jīng)網(wǎng)絡(luò)模型的設(shè)計(jì)模式,因此,在論文轉(zhuǎn)換成代碼的過(guò)程中,DLPaper2Code首先提取、理解論文中描述的深度學(xué)習(xí)設(shè)計(jì)流程圖和表格,將它們轉(zhuǎn)化成抽象的計(jì)算圖。
然后,它會(huì)把抽取的計(jì)算圖轉(zhuǎn)換成Keras和Caffe框架下的可執(zhí)行源代碼。
IBM的這項(xiàng)研究,總共生成了5000篇arXiv深度學(xué)習(xí)論文的Caffe和Keras代碼,還創(chuàng)建了一個(gè)網(wǎng)站,供同行們眾包編輯這些代碼。不過(guò),這個(gè)網(wǎng)站的地址還沒(méi)有公布,目前只能看到截圖:
在提取流程圖的過(guò)程中,IBM的研究員們遇到了一些障礙:他們需要讓程序提取論文中所有圖表之后,再進(jìn)行一次分類,找出包含深度學(xué)習(xí)模型設(shè)計(jì)的那些,去掉那些和模型相關(guān)性不大的描述性圖片和展示結(jié)果的表格。
但是,論文中介紹深度學(xué)習(xí)模型設(shè)計(jì)的圖千奇百怪,表格的結(jié)構(gòu)也各不相同。
怎樣讓程序自動(dòng)找出有用的圖表呢?IBM研究員們?nèi)巳馓幚砹苏撐闹械?萬(wàn)張圖,將深度學(xué)習(xí)模型設(shè)計(jì)圖分成了5大類:
5大類深度學(xué)習(xí)模型設(shè)計(jì)圖
1. 神經(jīng)元分布圖;
2. 2D Box:將每個(gè)隱藏層表示為一個(gè)2D方塊;
3. Stacked2D Box:將神經(jīng)網(wǎng)絡(luò)每一層表示為堆疊的2D方塊,表示層的深度;
4. 3D Box:將每個(gè)隱藏層表示為一個(gè)3D立方體結(jié)構(gòu);
5. 表示整個(gè)流程的Pipeline plot。
而表格,主要包括橫排表示模型設(shè)計(jì)流程和縱列表示模型設(shè)計(jì)流程兩類。
在此基礎(chǔ)上,他們構(gòu)建了一個(gè)細(xì)粒度的分類器,來(lái)把圖表分到上面提到的5類圖2類表之中,然后就可以使用OCR等工具將圖表中的內(nèi)容提取出來(lái)。
從圖中提取內(nèi)容的過(guò)程
圖表內(nèi)容提取出來(lái)之后,就可以根據(jù)這些信息構(gòu)建計(jì)算圖并生成源代碼了。
池化2D層對(duì)應(yīng)的計(jì)算圖、Caffe(Protobuf)和Keras(Python)代碼
自動(dòng)生成的代碼究竟怎么樣呢?
為了對(duì)DLPaper2Code進(jìn)行評(píng)估,IBM研究員們創(chuàng)建了一個(gè)包含21.6萬(wàn)份設(shè)計(jì)可視化圖的模擬數(shù)據(jù)集,在這些數(shù)據(jù)集上的實(shí)驗(yàn)顯示,上面講的模型,在流程圖內(nèi)容提取上準(zhǔn)確率可達(dá)93%。
AI自動(dòng)化暢想曲
上面這個(gè)研究。來(lái)自IBM印度研究院。
共有五位署名作者:Akshay Sethi、Anush Sankaran、Naveen Panwar、Shreya Khare、Senthil Mani。其中第一作者Akshay Sethi,明年才會(huì)本科畢業(yè)。目前是IBM印度研究院的實(shí)習(xí)生。
嗯,實(shí)習(xí)生又開(kāi)掛了。中外概莫能外~
但這么一篇清新脫俗的研究,真能在實(shí)踐中應(yīng)用么?
在reddit上,不少人還是對(duì)這篇論文有點(diǎn)心生疑慮。比方有人覺(jué)得這個(gè)論文很有意思,但是細(xì)細(xì)讀下來(lái),還是有些地方比較奇怪。但也有人覺(jué)得雖然標(biāo)題有點(diǎn)唬人,但這項(xiàng)研究感覺(jué)還是不錯(cuò)。當(dāng)然也有人直言:浪費(fèi)時(shí)間。
更多的結(jié)論還有待時(shí)間考驗(yàn),但歸根結(jié)底,這些都是AI自動(dòng)化方向的一種探索。讓AI自己搞定AI,讓軟件自己編寫(xiě)軟件,一直都是研究人員追逐的目標(biāo)。
比方今年5月,Google發(fā)布了AutoML。對(duì),就是跟今天正式推出的TensorFlow Lite同天發(fā)布的AutoML。
AutoML就是要讓神經(jīng)網(wǎng)絡(luò)去設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)。谷歌希望能借AutoML來(lái)促進(jìn)深度學(xué)習(xí)開(kāi)發(fā)者規(guī)模的擴(kuò)張,讓設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的人,從供不應(yīng)求的PhD,變成成千上萬(wàn)的普通工程師。
也是在今年,MIT學(xué)者開(kāi)發(fā)出一套系統(tǒng),能夠自動(dòng)給代碼打補(bǔ)丁。
聽(tīng)起來(lái),以后碼農(nóng)越來(lái)越好干了呢。其實(shí)不是。
要知道,微軟和劍橋聯(lián)合開(kāi)發(fā)了一個(gè)系統(tǒng):DeepCoder。就能夠通過(guò)搜索一系列代碼建立一個(gè)完整的程序,可達(dá)到編程比賽的水平。而且,這個(gè)系統(tǒng)還能通過(guò)自我訓(xùn)練能夠變得更聰明。未來(lái)程序員的飯碗也不是很鐵了。
歡迎加入本站公開(kāi)興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4673.html
摘要:期間,我從爬蟲(chóng)入手,一路摸爬滾打,實(shí)現(xiàn)了千萬(wàn)級(jí)微博評(píng)論自動(dòng)抓取,在即將成為爬蟲(chóng)專家前,受師兄指點(diǎn)轉(zhuǎn)向算法。確定研究方向經(jīng)過(guò)前面的理論學(xué)習(xí),你應(yīng)該發(fā)現(xiàn)深度學(xué)習(xí)領(lǐng)域有很多細(xì)分方向,例如語(yǔ)音自然語(yǔ)言處理視覺(jué)強(qiáng)化學(xué)習(xí)純深度學(xué)習(xí)理論。 最近很多剛?cè)雽W(xué)的學(xué)弟學(xué)妹給我們留言,聽(tīng)說(shuō)算法崗現(xiàn)在競(jìng)爭(zhēng)很激烈,...
摘要:不過(guò),蘋(píng)果實(shí)驗(yàn)室作為計(jì)算機(jī)學(xué)院的學(xué)習(xí)類組織,撰寫(xiě)此貼的內(nèi)容集中于本科期間學(xué)習(xí)路線的宏觀規(guī)劃建議。其中主要問(wèn)題大概是初入大學(xué)的迷茫與美好大學(xué)愿景之間的矛盾自主學(xué)習(xí)能力的欠缺與遠(yuǎn)大志向的矛盾。 ...
摘要:主流機(jī)器學(xué)習(xí)社區(qū)對(duì)神經(jīng)網(wǎng)絡(luò)興趣寡然。對(duì)于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個(gè)不同的方法對(duì)此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單梯度下降適用于信號(hào)和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來(lái)到簡(jiǎn)史的最后一部分。這一部分,我們會(huì)來(lái)到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢(shì)并找回自己,也會(huì)看到自此以后它獲得的驚人先進(jìn)成果?!冈噯?wèn)機(jī)器學(xué)習(xí)領(lǐng)域的任何一人,是什...
閱讀 2744·2023-04-25 17:58
閱讀 3010·2021-11-15 11:38
閱讀 2416·2021-11-02 14:48
閱讀 1223·2021-08-25 09:40
閱讀 1853·2019-08-30 15:53
閱讀 1124·2019-08-30 15:52
閱讀 1056·2019-08-30 13:55
閱讀 2469·2019-08-29 15:21