成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Yoshua Bengio等大神傳授:26條深度學(xué)習(xí)經(jīng)驗(yàn)

Salamander / 775人閱讀

摘要:八月初,我有幸有機(jī)會(huì)參加了蒙特利爾深度學(xué)習(xí)暑期學(xué)校的課程,由最知名的神經(jīng)網(wǎng)絡(luò)研究人員組成的為期天的講座。另外,當(dāng)損失函數(shù)接近全局最小時(shí),概率會(huì)增加。降低訓(xùn)練過(guò)程中的學(xué)習(xí)率。對(duì)抗樣本的訓(xùn)練據(jù)最近信息顯示,神經(jīng)網(wǎng)絡(luò)很容易被對(duì)抗樣本戲弄。

8月初的蒙特利爾深度學(xué)習(xí)暑期班,由Yoshua Bengio、 Leon Bottou等大神組成的講師團(tuán)奉獻(xiàn)了10天精彩的講座,劍橋大學(xué)自然語(yǔ)言處理與信息檢索研究組副研究員Marek Rei參加了本次課程,在本文中,他精煉地總結(jié)了學(xué)到的26個(gè)有代表性的知識(shí)點(diǎn),包括分布式表示,tricks的技巧,對(duì)抗樣本的訓(xùn)練,Neural Machine Translation,以及Theano、Nvidia Digits等,非常具有參考價(jià)值。

八月初,我有幸有機(jī)會(huì)參加了蒙特利爾深度學(xué)習(xí)暑期學(xué)校的課程,由最知名的神經(jīng)網(wǎng)絡(luò)研究人員組成的為期10天的講座。在此期間,我學(xué)到了很多,用一篇博客也說(shuō)不完。我不會(huì)用60個(gè)小時(shí)的時(shí)間來(lái)講解神經(jīng)網(wǎng)絡(luò)知識(shí)的價(jià)值,而會(huì)以段落的方式來(lái)總結(jié)我學(xué)到的一些有趣的知識(shí)點(diǎn)。

在撰寫(xiě)本文時(shí),暑期學(xué)校網(wǎng)站仍可以訪問(wèn),并附有全部的演示文稿。所有的資料和插圖都是來(lái)自原作者。暑期學(xué)校的講座已經(jīng)錄制成了視頻,它們也可能會(huì)被上傳到網(wǎng)站上。

好了,我們開(kāi)始吧。

1、分布式表示(distributed representations)的需要

在Yoshua Bengio開(kāi)始的講座上,他說(shuō)“這是我重點(diǎn)講述的幻燈片”。下圖就是這張幻燈片:

假設(shè)你有一個(gè)分類器,需要分類人們是男性還是女性,佩戴眼鏡還是不佩戴眼鏡,高還是矮。如果采用非分布式表示,你就在處理2*2*2=8類人。為訓(xùn)練精準(zhǔn)度高的分類器,你需要為這8類收集足夠的訓(xùn)練數(shù)據(jù)。但是,如果采用分布式表示,每一個(gè)屬性都會(huì)在其他不同維度中有所展現(xiàn)。這意味著即使分類器沒(méi)有碰到佩戴眼鏡的高個(gè)子,它也能成功地識(shí)別他們,因?yàn)樗鼘W(xué)會(huì)了從其他樣本中多帶帶學(xué)習(xí)識(shí)別性別,佩戴眼鏡與否和身高。

2、局部最小在高維度不是問(wèn)題

Yoshua Bengio的團(tuán)隊(duì)通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),優(yōu)化高維度神經(jīng)網(wǎng)絡(luò)參數(shù)時(shí),就沒(méi)有局部最小。相反,在某些維度上存在鞍點(diǎn),它們是局部最小的,但不是全局最小。這意味著,在這些點(diǎn)訓(xùn)練會(huì)減慢許多,直到網(wǎng)絡(luò)知道如何離開(kāi)這些點(diǎn),但是我們?cè)敢獾茸銐蜷L(zhǎng)的時(shí)間的話,網(wǎng)絡(luò)總會(huì)找到方法的。

下圖展示了在網(wǎng)絡(luò)訓(xùn)練過(guò)程中,兩種狀態(tài)的震動(dòng)情況:靠近鞍點(diǎn)和離開(kāi)鞍點(diǎn)。

給定一個(gè)指定的維度,小概率p表示點(diǎn)是局部最小的可能性,但不是此維度上全局最小。在1000維度空間里的點(diǎn)不是局部最小的概率和就會(huì)是,這是一個(gè)非常小的值。但是,在某些維度里,這個(gè)點(diǎn)是局部最小的概率實(shí)際上比較高。而且當(dāng)我們同時(shí)得到多維度下的最小值時(shí),訓(xùn)練可能會(huì)停住直到找到正確的方向。

另外,當(dāng)損失函數(shù)接近全局最小時(shí),概率p會(huì)增加。這意味著,如果我們找到了真正的局部最小,那么它將非常接近全局最小,這種差異是無(wú)關(guān)緊要的。

3、導(dǎo)函數(shù),導(dǎo)函數(shù),導(dǎo)函數(shù)

Leon Bottou列出了一些有用的表格,關(guān)于激活函數(shù),損失函數(shù),和它們相應(yīng)的導(dǎo)函數(shù)。我將它們先放在這里以便后續(xù)使用。

更新:根據(jù)評(píng)論指出,斜率公式中的最小較大函數(shù)應(yīng)該調(diào)換。

4、權(quán)重初始化策略

目前在神經(jīng)網(wǎng)絡(luò)中建議使用的權(quán)重初始化策略是將值歸一化到范圍[-b,b],b為:

由Hugo Larochelle推薦,Glorot和Bengio發(fā)布(2010)。

5、神經(jīng)網(wǎng)絡(luò)訓(xùn)練技巧

Hugo Larochelle給出的一些實(shí)用建議:

歸一化實(shí)值數(shù)據(jù)。減去平均值,再除以標(biāo)準(zhǔn)差。

降低訓(xùn)練過(guò)程中的學(xué)習(xí)率。

更新使用小批量數(shù)據(jù),梯度會(huì)更穩(wěn)定。

使用動(dòng)量,通過(guò)停滯期。

6、梯度檢測(cè)

如果你手動(dòng)實(shí)現(xiàn)了反向傳播算法但是它不起作用,那么有99%的可能是梯度計(jì)算中存在Bug。那么就用梯度檢測(cè)來(lái)定位問(wèn)題。主要思想是運(yùn)用梯度的定義:如果我們稍微增加某個(gè)權(quán)重值,模型的誤差將會(huì)改變多少。

這里有更詳細(xì)的解釋:Gradient checking and advanced optimization。

7、動(dòng)作跟蹤

人體動(dòng)作跟蹤可以達(dá)到非常高的精準(zhǔn)度。下圖是來(lái)自Graham Taylor等人(2010)發(fā)表的論文Dynamical Binary Latent Variable Models for 3D Human Pose Tracking中的例子。該方法使用的是條件受限的玻爾茲曼機(jī)。

8、使用語(yǔ)法還是不使用語(yǔ)法?(即“需要考慮語(yǔ)法嗎?”)

Chris Manning和Richard Socher已經(jīng)投入了大量的精力來(lái)開(kāi)發(fā)組合模型,它將神經(jīng)嵌入與更多傳統(tǒng)的分析方法組合起來(lái)。這在Recursive Neural Tensor Network這篇論文中達(dá)到了極致,它使用加法和乘法的互動(dòng)將詞義與語(yǔ)法解析樹(shù)組合。

然后,該模型被Paragraph向量(Le和Mikolov,2014)打敗了(以相當(dāng)大的差距),Paragraph向量對(duì)語(yǔ)句結(jié)構(gòu)和語(yǔ)法完全不了解。Chris Manning將這個(gè)結(jié)果稱作“創(chuàng)造‘好的’組合向量的一次失敗”。

然而,最近越來(lái)越多的使用語(yǔ)法解析樹(shù)的工作成果改變了那一結(jié)果。Irsoy和Cardie(NIPS,2014)在多維度上使用更深層的網(wǎng)絡(luò)成功地打敗了Paragraph向量。最后,Tai等人(ACL,2015)將LSTM網(wǎng)絡(luò)與語(yǔ)法解析樹(shù)結(jié)合,進(jìn)一步改進(jìn)了結(jié)果。

這些模型在斯坦福5類情感數(shù)據(jù)集上結(jié)果的精準(zhǔn)度如下:

從目前來(lái)看,使用語(yǔ)法解析樹(shù)的模型比簡(jiǎn)單方法更勝一籌。我很好奇下一個(gè)不基于語(yǔ)法的方法何時(shí)出現(xiàn),它又將會(huì)如何推動(dòng)這場(chǎng)比賽。畢竟,許多神經(jīng)模型的目標(biāo)不是丟棄底層的語(yǔ)法,而是隱式的將它捕獲在同一個(gè)網(wǎng)絡(luò)中。

9、分布式與分配式

Chris Manning本人澄清了這兩個(gè)詞之間的區(qū)別。

分布式:在若干個(gè)元素中的連續(xù)激活水平。比如密集詞匯嵌入,而不是1-hot向量。

分配式:表示的是使用上下文。word2vec是分配式的,當(dāng)我們使用詞匯的上下文來(lái)建模語(yǔ)義時(shí),基于計(jì)數(shù)的詞匯向量也是分配式的。

10、依賴狀態(tài)分析

Penn Treebank中的依賴分析器比較:

Parser

Unlabelled Accuracy

Labelled Acccuracy

Speed (sent/s)

MaltParser

89.8

87.2

469

MSTParser

91.4

88.1

10

TurboParser

92.3

89.6

8

Stanford Neural Dependency Parser?

92.0

89.7

654

Google

94.3

92.4

?

最后一個(gè)結(jié)果是從谷歌“提取出所有stops”得到的,將海量數(shù)據(jù)源來(lái)訓(xùn)練斯坦福神經(jīng)語(yǔ)法解析器。

11、Theano

我之前對(duì)Theano有所了解,但是我在暑期學(xué)校學(xué)習(xí)到了更多。而且它實(shí)在是太棒了。

由于Theano起源自蒙特利爾,直接請(qǐng)教Theano的開(kāi)發(fā)者會(huì)很有用。

關(guān)于它大多數(shù)的信息都可以在網(wǎng)上找到,以交互式Python教程的形式。

12、Nvidia Digits

英偉達(dá)有一個(gè)叫做Digits的工具包,它可以訓(xùn)練并可視化復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型而不需要寫(xiě)任何代碼。并且他們正在出售DevBox,這是一款定制機(jī)器,可以運(yùn)行Digits和其他深度學(xué)習(xí)軟件(Theano,Caffe等)。它有4塊Titan X GPU,目前售價(jià)15,000美元。

13、Fuel

Fuel是一款管理數(shù)據(jù)集迭代的工具,它可以將數(shù)據(jù)集切分成若干小部分,進(jìn)行shuffle操作,執(zhí)行多種預(yù)處理步驟等。對(duì)于一些建立好的數(shù)據(jù)集有預(yù)置的功能,比如MNIST,CIFAR-10和谷歌的10億詞匯語(yǔ)料庫(kù)。它主要是與Blocks結(jié)合使用,Blocks是使用Theano簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)的工具。

14、多模型語(yǔ)言學(xué)規(guī)律

記得“國(guó)王-男性+女性=女王”嗎?事實(shí)上圖片也能這么處理(Kiros等人,2015)。

15、泰勒級(jí)數(shù)逼近

當(dāng)我們?cè)邳c(diǎn)處,向移動(dòng)時(shí),那么我們可以通過(guò)計(jì)算導(dǎo)函數(shù)來(lái)估計(jì)函數(shù)在新位置的值,我們將使用泰勒級(jí)數(shù)逼近:

同樣地,當(dāng)我們將參數(shù)更新到時(shí),我們可以估計(jì)損失函數(shù):

其中g(shù)是對(duì)θ的導(dǎo)數(shù),H是對(duì)θ的二階Hessian導(dǎo)數(shù)。

這是二階泰勒逼近,但是我們可以通過(guò)采用更高階導(dǎo)數(shù)來(lái)增加準(zhǔn)確性

16、計(jì)算強(qiáng)度

Adam Coates 提出了一種分析GPU上矩陣操作速度的策略。這是一個(gè)簡(jiǎn)化的模型,可以顯示花在讀取內(nèi)存或者進(jìn)行計(jì)算的時(shí)間。假設(shè)你可以同時(shí)計(jì)算這兩個(gè)值,那么我們就可以知道那一部分耗費(fèi)時(shí)間更多。

假設(shè)我們將矩陣和一個(gè)向量相乘:

如果M=1024,N=512,那么我們需要讀取和存儲(chǔ)的字節(jié)數(shù)是:

4 bytes ×(1024×512+512+1024)=2.1e6 bytes

計(jì)算次數(shù)是:

2×1024×512=1e6 FLOPs

如果我們有塊6TFLOP/s的GPU,帶寬300GB/s的內(nèi)存,那么運(yùn)行總時(shí)間是:

max{2.1e6 bytes /(300e9 bytes/s),1e6 FLOPs/(6e12 FLOP/s)}=max{7μs,0.16μs}

這意味著處理過(guò)程的瓶頸在于從內(nèi)存中復(fù)制或向內(nèi)存中寫(xiě)入消耗的7μs,而且使用更快的GPU也不會(huì)提升速度了。你可能會(huì)猜到,在進(jìn)行矩陣-矩陣操作時(shí),當(dāng)矩陣/向量變大時(shí),這一情況會(huì)有所好轉(zhuǎn)。

Adam同樣給出了計(jì)算操作強(qiáng)度的算法:

強(qiáng)度= (#算術(shù)操作)/(#字節(jié)加載或存儲(chǔ)數(shù))

在之前的場(chǎng)景中,強(qiáng)度是這樣的:

強(qiáng)度= (1e6 FLOPs)/(2.1e6 bytes)= 0.5FLOPs/bytes

低強(qiáng)度意味著系統(tǒng)受內(nèi)存大小的牽制,高強(qiáng)度意味著受GPU速度的牽制。這可以被可視化,由此來(lái)決定應(yīng)該改進(jìn)哪個(gè)方面來(lái)提升整體系統(tǒng)速度,并且可以觀察較佳點(diǎn)的位置。

17、小批量

繼續(xù)說(shuō)說(shuō)計(jì)算強(qiáng)度,增加網(wǎng)絡(luò)強(qiáng)度的一種方式(受計(jì)算而不是內(nèi)存限制)是,將數(shù)據(jù)分成小批量。這可以避免一些內(nèi)存操作,GPU也擅長(zhǎng)并行處理大矩陣計(jì)算。

然而,增加批次的大小的話可能會(huì)對(duì)訓(xùn)練算法有影響,并且合并需要更多時(shí)間。重要的是要找到一個(gè)很好的平衡點(diǎn),以在最短的時(shí)間內(nèi)獲得較好的效果。

18、對(duì)抗樣本的訓(xùn)練

據(jù)最近信息顯示,神經(jīng)網(wǎng)絡(luò)很容易被對(duì)抗樣本戲弄。在下面的案例中,左邊的圖片被正確分類成金魚(yú)。但是,如果我們加入中間圖片的噪音模式,得到了右邊這張圖片,分類器認(rèn)為這是一張雛菊的圖片。圖片來(lái)自于Andrej Karpathy的博客 “Breaking Linear Classifiers on ImageNet”,你可以從那了解更多。

噪音模式并不是隨機(jī)選擇的,而是為了戲弄網(wǎng)絡(luò)通過(guò)精心計(jì)算得到的。但是問(wèn)題依然存在:右邊的圖像顯然是一張金魚(yú)而不是雛菊。

顯然,像集成模型,多掃視后投票和無(wú)監(jiān)督預(yù)訓(xùn)練的策略都不能解決這個(gè)漏洞。使用高度正則化會(huì)有所幫助,但會(huì)影響判斷不含噪聲圖像的準(zhǔn)確性。

Ian Goodfellow提出了訓(xùn)練這些對(duì)抗樣本的理念。它們可以自動(dòng)的生成并添加到訓(xùn)練集中。下面的結(jié)果表明,除了對(duì)對(duì)抗樣本有所幫助之外,這也提高了原始樣本上的準(zhǔn)確性。

最后,我們可以通過(guò)懲罰原始預(yù)測(cè)分布與對(duì)抗樣本上的預(yù)測(cè)分布之間的KL發(fā)散來(lái)進(jìn)一步改善結(jié)果。這將優(yōu)化網(wǎng)絡(luò)使之更具魯棒性,并能夠?qū)ο嗨疲▽?duì)抗的)圖像預(yù)測(cè)相似類分布。

19、萬(wàn)事萬(wàn)物皆為語(yǔ)言建模

Phil Blunsom 提出,幾乎所有的NLP都可以構(gòu)建成語(yǔ)言模型。我們可以通過(guò)這種方式實(shí)現(xiàn),將輸出與輸入連接,并嘗試預(yù)測(cè)整個(gè)序列的概率。

翻譯:

P(Les chiens aiment les os || Dogs love bones)

問(wèn)答:

P(What do dogs love? || bones .)

對(duì)話:

P(How are you? || Fine thanks. And you?)

后兩個(gè)必須建立在對(duì)世界已知事物了解的基礎(chǔ)上。第二部分甚至可以不是詞語(yǔ),也可以是一些標(biāo)簽或者結(jié)構(gòu)化輸出,比如依賴關(guān)系。

20、SMT開(kāi)頭難

當(dāng)Frederick Jelinek 和他在IBM的團(tuán)隊(duì)在1988年提交了關(guān)于統(tǒng)計(jì)機(jī)器翻譯第一批之一的論文時(shí),他們的到了如下的匿名評(píng)審:

正如作者提到的,早在1949年Weaver就肯定了統(tǒng)計(jì)(信息論)方法進(jìn)行機(jī)器翻譯的有效性。而在1950年被普遍認(rèn)為是錯(cuò)誤的(參見(jiàn)Hutchins, MT – Past, Present, Future, Ellis Horwood, 1986, p. 30ff 和參考文獻(xiàn))。計(jì)算機(jī)的暴力解決并不是科學(xué)。該論文已經(jīng)超出了COLING的范圍。

21、神經(jīng)機(jī)器翻譯(Neural Machine Translation)現(xiàn)狀

顯然,一個(gè)非常簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)模型可以產(chǎn)生出奇好的結(jié)果。下圖是Phil Blunsom的一張幻燈片,將中文翻譯成英文的例子:

在這個(gè)模型中,漢字向量簡(jiǎn)單地相加在一起形成一個(gè)語(yǔ)句向量。解碼器包含一個(gè)條件性語(yǔ)言模型,將語(yǔ)句向量和兩個(gè)最近生成的英語(yǔ)單詞中的向量結(jié)合,然后生成譯文中下一個(gè)單詞。

然而,神經(jīng)模型仍然沒(méi)有將傳統(tǒng)機(jī)器翻譯系統(tǒng)性能發(fā)揮到極致。但是它們已經(jīng)相當(dāng)接近了。Sutskever等人(2014)在“Sequence to Sequence Learning with Neural Networks”中的結(jié)果:

更新:@stanfordnlp指出,最近一些結(jié)果表明,神經(jīng)模型確實(shí)會(huì)將傳統(tǒng)機(jī)器翻譯系統(tǒng)性能發(fā)揮到極致。查看這篇論文“Effective Approaches to Attention-based Neural Machine Translation”(Luong等人,2015)

22、偉大人物的分類例子

Richard Socher演示了偉大人物圖像分類例子,你可以自己上傳圖像來(lái)訓(xùn)練。我訓(xùn)練了一個(gè)可以識(shí)別愛(ài)迪生和愛(ài)因斯坦(不能找到足夠的特斯拉個(gè)人相片)的分類器。每個(gè)類有5張樣本圖片,對(duì)每個(gè)類測(cè)試輸出圖像。似乎效果不錯(cuò)。

23、優(yōu)化梯度更新

Mark Schmidt給出了兩份關(guān)于在不同情況下數(shù)值優(yōu)化的報(bào)告。

在確定性梯度方法中,我們?cè)谡麄€(gè)數(shù)據(jù)集上計(jì)算了梯度,然后更新它。迭代成本與數(shù)據(jù)集大小呈線性關(guān)系。

在隨機(jī)梯度方法中,我們?cè)谝粋€(gè)數(shù)據(jù)點(diǎn)上計(jì)算了梯度,然后更新它。迭代成本與數(shù)據(jù)集大小無(wú)關(guān)。

隨機(jī)梯度下降中的每次迭代要快許多,但是它通常需要更多的迭代來(lái)訓(xùn)練網(wǎng)絡(luò),如下圖所示:

為了達(dá)到這兩者較好效果,我們可以用批量處理。確切的說(shuō),我們可以對(duì)數(shù)據(jù)集先進(jìn)行隨機(jī)梯度下降,為快速達(dá)到右邊的部分,然后開(kāi)始增加批大小。梯度誤差隨著批大小的增加而減少,然而最終迭代成本大小還是會(huì)取決于數(shù)據(jù)集大小。

隨機(jī)平均梯度(SAG)可以避免這樣的情況,每次迭代只有1個(gè)梯度,從而得到線性收斂速度。不幸的是,這對(duì)于大型神經(jīng)網(wǎng)絡(luò)是不可行的,因?yàn)樗鼈冃枰涀∶恳粋€(gè)數(shù)據(jù)點(diǎn)的梯度更新,這就會(huì)耗費(fèi)大量?jī)?nèi)存。隨機(jī)方差降低梯度(SVRG)可以減少這種內(nèi)存耗費(fèi)的情況,并且每次迭代(加上偶然全部通過(guò))只需要兩次梯度計(jì)算。

Mark表示,他的一位學(xué)生實(shí)現(xiàn)了各種優(yōu)化方法(AdaGrad,momentum,SAG等)。當(dāng)問(wèn)及在黑盒神經(jīng)網(wǎng)絡(luò)系統(tǒng)中他會(huì)使用什么方法時(shí),這位學(xué)生給出了兩種方法:Streaming SVRG(Frostig等人,2015),和一種他們還沒(méi)發(fā)布的方法。

24、Theano分析

如果你將“profile=true”賦值給THEANO_FLAGS,它將會(huì)分析你的程序,然后顯示花在每個(gè)操作上的時(shí)間。對(duì)尋找性能瓶頸很有幫助。

25、對(duì)抗性網(wǎng)絡(luò)框架

繼Ian Goodfellow關(guān)于對(duì)抗性樣本的演講之后,Yoshua Bengio 談到了用兩個(gè)系統(tǒng)相互競(jìng)爭(zhēng)的案例。

系統(tǒng)D是一套判別性系統(tǒng),它的目的是分類真實(shí)數(shù)據(jù)和人工生成的數(shù)據(jù)。

系統(tǒng)G是一套生成系統(tǒng),它試圖生成可以讓系統(tǒng)D錯(cuò)誤分類成真實(shí)數(shù)據(jù)的數(shù)據(jù)。

當(dāng)我們訓(xùn)練一個(gè)系統(tǒng)時(shí),另外一個(gè)系統(tǒng)也要相應(yīng)的變的更好。在實(shí)驗(yàn)中這的確有效,不過(guò)步長(zhǎng)必須保持十分小,以便于系統(tǒng)D可以更上G的速度。下面是“Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks”中的一些例子——這個(gè)模型的一個(gè)更高級(jí)版本,它試圖生成教堂的圖片。

26、arXiv.org編號(hào)

arXiv編號(hào)包含著論文提交的年份和月份,后面跟著序列號(hào),比如論文1508.03854表示編號(hào)3854的論文在2015年8月份提交。很高興知道這個(gè)。

歡迎加入本站公開(kāi)興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4438.html

相關(guān)文章

  • Yoshua Bengio大神傳授26深度學(xué)習(xí)經(jīng)驗(yàn)

    摘要:另外,當(dāng)損失函數(shù)接近全局最小時(shí),概率會(huì)增加。降低訓(xùn)練過(guò)程中的學(xué)習(xí)率。對(duì)抗樣本的訓(xùn)練據(jù)最近信息顯示,神經(jīng)網(wǎng)絡(luò)很容易被對(duì)抗樣本戲弄。使用高度正則化會(huì)有所幫助,但會(huì)影響判斷不含噪聲圖像的準(zhǔn)確性。 由 Yoshua Bengio、 Leon Bottou 等大神組成的講師團(tuán)奉獻(xiàn)了 10 天精彩的講座,劍橋大學(xué)自然語(yǔ)言處理與信息檢索研究組副研究員 Marek Rei 參加了本次課程,在本文中,他精煉地...

    Lowky 評(píng)論0 收藏0
  • Yoshua Bengio:純粹與理想,深度學(xué)習(xí)的30年

    摘要:但是在當(dāng)時(shí),幾乎沒(méi)有人看好深度學(xué)習(xí)的工作。年,與和共同撰寫(xiě)了,這本因封面被人們親切地稱為花書(shū)的深度學(xué)習(xí)奠基之作,也成為了人工智能領(lǐng)域不可不讀的圣經(jīng)級(jí)教材。在年底,開(kāi)始為深度學(xué)習(xí)的產(chǎn)業(yè)孵化助力。 蒙特利爾大學(xué)計(jì)算機(jī)科學(xué)系教授 Yoshua Bengio從法國(guó)來(lái)到加拿大的時(shí)候,Yoshua Bengio只有12歲。他在加拿大度過(guò)了學(xué)生時(shí)代的大部分時(shí)光,在麥吉爾大學(xué)的校園中接受了從本科到博士的完整...

    william 評(píng)論0 收藏0
  • 吳恩達(dá)眼中的深度學(xué)習(xí)七雄

    摘要:的研究興趣涵蓋大多數(shù)深度學(xué)習(xí)主題,特別是生成模型以及機(jī)器學(xué)習(xí)的安全和隱私。與以及教授一起造就了年始的深度學(xué)習(xí)復(fù)興。目前他是僅存的幾個(gè)仍然全身心投入在學(xué)術(shù)界的深度學(xué)習(xí)教授之一。 Andrej Karpathy特斯拉 AI 主管Andrej Karpathy 擁有斯坦福大學(xué)計(jì)算機(jī)視覺(jué)博士學(xué)位,讀博期間師從現(xiàn)任 Google AI 首席科學(xué)家李飛飛,研究卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理上的應(yīng)...

    MingjunYang 評(píng)論0 收藏0
  • 那些開(kāi)創(chuàng)深度學(xué)習(xí)的大師們

    摘要:今年月日收購(gòu)了基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)創(chuàng)業(yè)公司。這項(xiàng)基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)技術(shù)已經(jīng)開(kāi)發(fā)完成,正在測(cè)試。深度學(xué)習(xí)的誤區(qū)及產(chǎn)品化浪潮百度首席科學(xué)家表示目前圍繞存在著某種程度的夸大,它不單出現(xiàn)于媒體的字里行間,也存在于一些研究者之中。 在過(guò)去的三十年,深度學(xué)習(xí)運(yùn)動(dòng)一度被認(rèn)為是學(xué)術(shù)界的一個(gè)異類,但是現(xiàn)在, Geoff Hinton(如圖1)和他的深度學(xué)習(xí)同事,包括紐約大學(xué)Yann LeCun和蒙特...

    Jackwoo 評(píng)論0 收藏0
  • 深度學(xué)習(xí)鼻祖杰夫·辛頓及巨頭們的人才搶奪戰(zhàn)

    摘要:毫無(wú)疑問(wèn),現(xiàn)在深度學(xué)習(xí)是主流。所以科技巨頭們包括百度等紛紛通過(guò)收購(gòu)深度學(xué)習(xí)領(lǐng)域的初創(chuàng)公司來(lái)招攬人才。這項(xiàng)基于深度學(xué)習(xí)的計(jì)算機(jī)視覺(jué)技術(shù)已經(jīng)開(kāi)發(fā)完成,正在測(cè)試。 在過(guò)去的三十年,深度學(xué)習(xí)運(yùn)動(dòng)一度被認(rèn)為是學(xué)術(shù)界的一個(gè)異類,但是現(xiàn)在,?Geoff Hinton(如圖1)和他的深度學(xué)習(xí)同事,包括紐約大學(xué)Yann LeCun和蒙特利爾大學(xué)的Yoshua Bengio,在互聯(lián)網(wǎng)世界受到前所未有的關(guān)注...

    YanceyOfficial 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<