成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

論文自動(dòng)轉(zhuǎn)代碼!IBM印度大三實(shí)習(xí)生搞了個(gè)神奇研究

zhichangterry / 1104人閱讀

摘要:的這項(xiàng)研究,總共生成了篇深度學(xué)習(xí)論文的和代碼,還創(chuàng)建了一個(gè)網(wǎng)站,供同行們眾包編輯這些代碼。來(lái)自印度研究院。目前是印度研究院的實(shí)習(xí)生。

深度學(xué)習(xí)的論文越來(lái)越多了~

多到什么程度?Google scholar的數(shù)據(jù)顯示,2016年以來(lái),人工智能領(lǐng)域新增的論文已經(jīng)超過(guò)3.5萬(wàn)篇。arXiv上,AI相關(guān)的論文每天都不下百篇。

剛剛結(jié)束不久的計(jì)算機(jī)視覺(jué)會(huì)議ICCV上,發(fā)表了621篇論文;2018年的ICLR,有1004篇論文正在匿名開(kāi)放評(píng)審;NIPS 2017共收到3240篇論文投稿。

研究成果極大豐富了,但離應(yīng)用到產(chǎn)品中,還差一大步:把論文轉(zhuǎn)化成代碼。畢竟,作者順便提供源碼的是少數(shù)。

怎么辦?

IBM印度研究院最近公布了一項(xiàng)新研究:DLPaper2Code,顧名思義,這個(gè)程序能夠用深度學(xué)習(xí)技術(shù),將論文轉(zhuǎn)化成代碼。

論文轉(zhuǎn)代碼的過(guò)程

這么神奇?!該不是看到一篇假研究?

坦白講,相關(guān)論文DLPaper2Code: Auto-generation of Code from Deep Learning Research Papers已經(jīng)被AAAI 2018接收為會(huì)議論文。

AAAI是人工智能頂會(huì)之一,明年就是第32屆了,2月2-7日在美國(guó)路易斯安那州的新奧爾良召開(kāi)。百度、京東是大會(huì)的黃金贊助商。

深度學(xué)習(xí)論文自動(dòng)轉(zhuǎn)代碼

這篇論文中指出,由于大部分深度學(xué)習(xí)論文都會(huì)用流程圖來(lái)表示神經(jīng)網(wǎng)絡(luò)模型的設(shè)計(jì)模式,因此,在論文轉(zhuǎn)換成代碼的過(guò)程中,DLPaper2Code首先提取、理解論文中描述的深度學(xué)習(xí)設(shè)計(jì)流程圖和表格,將它們轉(zhuǎn)化成抽象的計(jì)算圖。

然后,它會(huì)把抽取的計(jì)算圖轉(zhuǎn)換成Keras和Caffe框架下的可執(zhí)行源代碼。

IBM的這項(xiàng)研究,總共生成了5000篇arXiv深度學(xué)習(xí)論文的Caffe和Keras代碼,還創(chuàng)建了一個(gè)網(wǎng)站,供同行們眾包編輯這些代碼。不過(guò),這個(gè)網(wǎng)站的地址還沒(méi)有公布,目前只能看到截圖:

在提取流程圖的過(guò)程中,IBM的研究員們遇到了一些障礙:他們需要讓程序提取論文中所有圖表之后,再進(jìn)行一次分類,找出包含深度學(xué)習(xí)模型設(shè)計(jì)的那些,去掉那些和模型相關(guān)性不大的描述性圖片和展示結(jié)果的表格。

但是,論文中介紹深度學(xué)習(xí)模型設(shè)計(jì)的圖千奇百怪,表格的結(jié)構(gòu)也各不相同。

怎樣讓程序自動(dòng)找出有用的圖表呢?IBM研究員們?nèi)巳馓幚砹苏撐闹械?萬(wàn)張圖,將深度學(xué)習(xí)模型設(shè)計(jì)圖分成了5大類:

5大類深度學(xué)習(xí)模型設(shè)計(jì)圖

1. 神經(jīng)元分布圖;

2. 2D Box:將每個(gè)隱藏層表示為一個(gè)2D方塊;

3. Stacked2D Box:將神經(jīng)網(wǎng)絡(luò)每一層表示為堆疊的2D方塊,表示層的深度;

4. 3D Box:將每個(gè)隱藏層表示為一個(gè)3D立方體結(jié)構(gòu);

5. 表示整個(gè)流程的Pipeline plot。

而表格,主要包括橫排表示模型設(shè)計(jì)流程和縱列表示模型設(shè)計(jì)流程兩類。

在此基礎(chǔ)上,他們構(gòu)建了一個(gè)細(xì)粒度的分類器,來(lái)把圖表分到上面提到的5類圖2類表之中,然后就可以使用OCR等工具將圖表中的內(nèi)容提取出來(lái)。

從圖中提取內(nèi)容的過(guò)程

圖表內(nèi)容提取出來(lái)之后,就可以根據(jù)這些信息構(gòu)建計(jì)算圖并生成源代碼了。

池化2D層對(duì)應(yīng)的計(jì)算圖、Caffe(Protobuf)和Keras(Python)代碼

自動(dòng)生成的代碼究竟怎么樣呢?

為了對(duì)DLPaper2Code進(jìn)行評(píng)估,IBM研究員們創(chuàng)建了一個(gè)包含21.6萬(wàn)份設(shè)計(jì)可視化圖的模擬數(shù)據(jù)集,在這些數(shù)據(jù)集上的實(shí)驗(yàn)顯示,上面講的模型,在流程圖內(nèi)容提取上準(zhǔn)確率可達(dá)93%。

AI自動(dòng)化暢想曲

上面這個(gè)研究。來(lái)自IBM印度研究院。

共有五位署名作者:Akshay Sethi、Anush Sankaran、Naveen Panwar、Shreya Khare、Senthil Mani。其中第一作者Akshay Sethi,明年才會(huì)本科畢業(yè)。目前是IBM印度研究院的實(shí)習(xí)生。

嗯,實(shí)習(xí)生又開(kāi)掛了。中外概莫能外~

但這么一篇清新脫俗的研究,真能在實(shí)踐中應(yīng)用么?

在reddit上,不少人還是對(duì)這篇論文有點(diǎn)心生疑慮。比方有人覺(jué)得這個(gè)論文很有意思,但是細(xì)細(xì)讀下來(lái),還是有些地方比較奇怪。但也有人覺(jué)得雖然標(biāo)題有點(diǎn)唬人,但這項(xiàng)研究感覺(jué)還是不錯(cuò)。當(dāng)然也有人直言:浪費(fèi)時(shí)間。

更多的結(jié)論還有待時(shí)間考驗(yàn),但歸根結(jié)底,這些都是AI自動(dòng)化方向的一種探索。讓AI自己搞定AI,讓軟件自己編寫(xiě)軟件,一直都是研究人員追逐的目標(biāo)。

比方今年5月,Google發(fā)布了AutoML。對(duì),就是跟今天正式推出的TensorFlow Lite同天發(fā)布的AutoML。

AutoML就是要讓神經(jīng)網(wǎng)絡(luò)去設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)。谷歌希望能借AutoML來(lái)促進(jìn)深度學(xué)習(xí)開(kāi)發(fā)者規(guī)模的擴(kuò)張,讓設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)的人,從供不應(yīng)求的PhD,變成成千上萬(wàn)的普通工程師。

也是在今年,MIT學(xué)者開(kāi)發(fā)出一套系統(tǒng),能夠自動(dòng)給代碼打補(bǔ)丁。

聽(tīng)起來(lái),以后碼農(nóng)越來(lái)越好干了呢。其實(shí)不是。

要知道,微軟和劍橋聯(lián)合開(kāi)發(fā)了一個(gè)系統(tǒng):DeepCoder。就能夠通過(guò)搜索一系列代碼建立一個(gè)完整的程序,可達(dá)到編程比賽的水平。而且,這個(gè)系統(tǒng)還能通過(guò)自我訓(xùn)練能夠變得更聰明。未來(lái)程序員的飯碗也不是很鐵了。

歡迎加入本站公開(kāi)興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4673.html

相關(guān)文章

  • 三年前,我差點(diǎn)成了爬蟲(chóng)大師

    摘要:期間,我從爬蟲(chóng)入手,一路摸爬滾打,實(shí)現(xiàn)了千萬(wàn)級(jí)微博評(píng)論自動(dòng)抓取,在即將成為爬蟲(chóng)專家前,受師兄指點(diǎn)轉(zhuǎn)向算法。確定研究方向經(jīng)過(guò)前面的理論學(xué)習(xí),你應(yīng)該發(fā)現(xiàn)深度學(xué)習(xí)領(lǐng)域有很多細(xì)分方向,例如語(yǔ)音自然語(yǔ)言處理視覺(jué)強(qiáng)化學(xué)習(xí)純深度學(xué)習(xí)理論。 最近很多剛?cè)雽W(xué)的學(xué)弟學(xué)妹給我們留言,聽(tīng)說(shuō)算法崗現(xiàn)在競(jìng)爭(zhēng)很激烈,...

    Codeing_ls 評(píng)論0 收藏0
  • 大學(xué)學(xué)習(xí)路線規(guī)劃建議貼

    摘要:不過(guò),蘋(píng)果實(shí)驗(yàn)室作為計(jì)算機(jī)學(xué)院的學(xué)習(xí)類組織,撰寫(xiě)此貼的內(nèi)容集中于本科期間學(xué)習(xí)路線的宏觀規(guī)劃建議。其中主要問(wèn)題大概是初入大學(xué)的迷茫與美好大學(xué)愿景之間的矛盾自主學(xué)習(xí)能力的欠缺與遠(yuǎn)大志向的矛盾。 ...

    niceforbear 評(píng)論0 收藏0
  • 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡(jiǎn)史第四部分:深度學(xué)習(xí)終迎偉大復(fù)興

    摘要:主流機(jī)器學(xué)習(xí)社區(qū)對(duì)神經(jīng)網(wǎng)絡(luò)興趣寡然。對(duì)于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個(gè)不同的方法對(duì)此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單梯度下降適用于信號(hào)和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來(lái)到簡(jiǎn)史的最后一部分。這一部分,我們會(huì)來(lái)到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢(shì)并找回自己,也會(huì)看到自此以后它獲得的驚人先進(jìn)成果?!冈噯?wèn)機(jī)器學(xué)習(xí)領(lǐng)域的任何一人,是什...

    Simon_Zhou 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<