成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

關(guān)于深度學(xué)習(xí)(deep learning)

ZweiZhao / 1700人閱讀

摘要:在每一層學(xué)習(xí)到的結(jié)果表示作為下一層的輸入用監(jiān)督訓(xùn)練來調(diào)整所有層加上一個(gè)或者更多的用于產(chǎn)生預(yù)測的附加層當(dāng)前,國外在這方面的研究就是三分天下的局面,的與微軟合作,的和合作,以及的計(jì)算機(jī)科學(xué)家和。深度學(xué)習(xí)的入門材料。

轉(zhuǎn)載自:http://doctorimage.cn/2013/01/04/%e5%85%b3%e4%ba%8e%e6%b7%b1%e5%ba%a6%e5%ad%a6%e4%b9%a0deep-learning/ by:zerocv


說起對深度學(xué)習(xí)的了解,是在今年10月份看了 Stanford University的計(jì)算機(jī)科學(xué)家Andrew Y. Ng教授在Google的一個(gè)演講視頻開始的,看了之后還以為就是以前所說的artificial neutral network(人工神經(jīng)網(wǎng)絡(luò)),這個(gè)東西在本世紀(jì)初就逐漸越來越少人研究了,特別是在support vector machine(SVM, 支持向量機(jī))以其較強(qiáng)的分類能力和泛化能力出現(xiàn)之后,國內(nèi)高校更沒什么人在搞這個(gè),這從高校的一些課題和基金項(xiàng)目就可以看出來,這種東西怎么又突然有人講 了呢?懷著一絲疑問,我查閱了一些相關(guān)的報(bào)道,不查不要緊,一查才知道這東西現(xiàn)在是多火。
首先看到的報(bào)道 是在今年夏季,Google的技術(shù)人員Jeff Dean和Stanford University的Andrew Y. Ng把1.6萬臺電腦連在一起,使其能夠自我訓(xùn)練,對2萬個(gè)不同物體的1400萬張圖片進(jìn)行辨識。盡管準(zhǔn)確率較低,只有15.8%,但該系統(tǒng)的表現(xiàn)比之前 較先進(jìn)的系統(tǒng)都要好70%。 另一則類似的報(bào)道是Google把從YouTube隨機(jī)挑選的1000萬張200 x 200像素的圖輸入其系統(tǒng),讓計(jì)算機(jī)尋找圖像中一再重復(fù)出現(xiàn)的特征,從而對含有這種特征的物體進(jìn)行識別,令我感到最神奇的是,在開始分析數(shù)據(jù)前,并不需要 向系統(tǒng)輸入任何諸如”臉、肢體、貓的長相是什么樣子”這類信息。一旦系統(tǒng)發(fā)現(xiàn)了重復(fù)出現(xiàn)的圖像信息,計(jì)算機(jī)就創(chuàng)建出”圖像地圖”,該地圖稍后會(huì)幫助系統(tǒng)自 動(dòng)檢測與前述圖像信息類似的物體(關(guān)于這部分的報(bào)道,可以參見我原來9月份的一篇博文)。原來以為無監(jiān)督學(xué)習(xí)是用在clustering上的,現(xiàn)在在 classification上,無監(jiān)督學(xué)習(xí)也能如此,確實(shí)令我感慨。

視頻地址:http://v.youku.com/v_show/id_XNDcyOTU3NDc2.html

再接著,看到了今年10月份在天津的一次計(jì)算 會(huì)議上,微軟首席科學(xué)家Richard F. Rashid在上面演講關(guān)于語音識別的時(shí)候,演示了其使用深度學(xué)習(xí)技術(shù)(他的原話是:deep neural network,深度神經(jīng)網(wǎng)絡(luò),屬于深度學(xué)習(xí)的一種)來提高語音識別準(zhǔn)確率的效果(), 相比目前較先進(jìn)的基于Hidden Markov Model的技術(shù),其準(zhǔn)確率提升了大約30%(If you use that to take it much more data than had previously been able to be used with the hidden markov models, so that one change that particular break through increased recognition rates by approximately thirty percent)。然而,在7分35秒的時(shí)候,我也抑制不住地”哇”起來,原來,那個(gè)系統(tǒng)在進(jìn)行語音識別的同時(shí),還進(jìn)行了識別,把英文翻譯成了中文,不僅 如此,它還學(xué)習(xí)了Richard的發(fā)音和腔調(diào),用中文把翻譯的結(jié)果念了出來,博得現(xiàn)場一片掌聲。雖然仔細(xì)一看,有些中文還是沒有實(shí)時(shí)翻譯過來,發(fā)出中文聲 音也需要在原說話人發(fā)音之后大約2秒左右,但這已經(jīng)是非常之牛,想想國內(nèi)語音識別的先驅(qū)科大訊飛,目前還真是無法望其項(xiàng)背。

這種即將對我們的未來產(chǎn)生巨大改變的技術(shù),到底是一種什么神秘的東西
,其中的原理又到底什么,帶著這種探索與求知的欲望,我開始利用工作之余的時(shí)間進(jìn)行學(xué)習(xí)了解。

國內(nèi)來說,應(yīng)該是在今年和去年才在開始受到關(guān)注,然而,早在2006年,國外就已經(jīng)開始這方面的深入研究,并取得了 一定的階段性成果,追根溯源,這還是基于神經(jīng)網(wǎng)絡(luò)的啟發(fā)。在2006年前,神經(jīng)網(wǎng)絡(luò)嘗試訓(xùn)練深度的架構(gòu)都不是很成功,訓(xùn)練一個(gè)深度有監(jiān)督前饋神經(jīng)網(wǎng)絡(luò)趨向 于產(chǎn)生壞的結(jié)果(也即在訓(xùn)練和測試中誤差的收斂性不好),然后將其變淺為1個(gè)或2個(gè)隱層。2006年,University of Toronto的Geoffrey E. Hinton教授(一查他的背景才知道他原來是19世紀(jì)數(shù)學(xué)家George Boole的玄孫,George Boole在邏輯領(lǐng)域的工作構(gòu)成了現(xiàn)代數(shù)碼計(jì)算機(jī)的基礎(chǔ),難道天分這東西還真是得遺傳-_-)在Deep Belief Networks(DBN,深度信念網(wǎng))這方面有了革命性的突破,引發(fā)了國外在方面的研究熱潮。在其引領(lǐng)之下,有了這三篇重要的論文:

2006年的A fast learning algorithm for deep belief nets .( Hinton, G. E., Osindero, S. and Teh)

2007年的Greedy Layer-Wise Training of Deep Networks(Yoshua Bengio, Pascal Lamblin, Dan Popovici and Hugo Larochelle)

2007年的Efficient Learning of Sparse Representations with an Energy-Based Model(Marc’Aurelio Ranzato, Christopher Poultney, Sumit Chopra and Yann LeCun)

在這三篇論文中以下主要原理被發(fā)現(xiàn):

1. 無監(jiān)督學(xué)習(xí)的結(jié)果表示被用于(預(yù))訓(xùn)練每一層;

2. 在一個(gè)時(shí)間里的一個(gè)層次的無監(jiān)督訓(xùn)練,接著之前訓(xùn)練的層次。在每一層學(xué)習(xí)到的結(jié)果表示作為下一層的輸入;

3. 用監(jiān)督訓(xùn)練來調(diào)整所有層(加上一個(gè)或者更多的用于產(chǎn)生預(yù)測的附加層);

當(dāng)前,國外在這方面的研究就是三分天下的局面,University of Toronto的Geoffrey E. Hinton與微軟合作,Stanford University的Andrew Y. Ng和Google合作,以及New York University的計(jì)算機(jī)科學(xué)家Yann LeCun和Rob Fergus。國內(nèi)方面百度的于凱是這方面的先行者;據(jù)說企鵝也在招人搞這個(gè),又據(jù)說是在做索引結(jié)構(gòu)方面也能有一個(gè)質(zhì)的飛躍,一篇文章提取特征后就剩一個(gè) 20維的向量,也還不確定是否真能如此神,另外還有文獻(xiàn)提到可以用來做detection,因?yàn)槟壳癮daboost確實(shí)是在訓(xùn)練上很花時(shí)間,自己之前在 家搞了個(gè)手表的訓(xùn)練,也花了一周時(shí)間,而深度學(xué)習(xí)在特征選擇方面還是挺有優(yōu)勢的,不過之前看Andrew教授的視頻,提到未監(jiān)督學(xué)習(xí)用在做 detection上還是沒有什么突破,不知道這里做檢測效果會(huì)怎樣;學(xué)術(shù)界現(xiàn)在在這塊就是在與時(shí)間賽跑,誰先跑出個(gè)成果誰就是第一個(gè)吃螃蟹的(做人臉的 山世光也對于凱在這方面的report挺看重)。下面就先附上一些個(gè)人覺得比較重要的相關(guān)論文,其中部分還未細(xì)讀,有些因?yàn)榉旁趕pringlink或者 sciencedirect上無法下載,待有時(shí)間再請人找找后深入學(xué)習(xí)。


Learning multiple layers of representation, 2007.

這篇論文,篇幅短小,適合初學(xué)者理解DBNs,特別是非數(shù)學(xué)專業(yè)的。


Deep machine learning – a new frontier in artificial intelligence research, 2010.

深度學(xué)習(xí)的入門材料。


Learning deep architecture for AI, 2009.

深度學(xué)習(xí)的經(jīng)典論文,可以當(dāng)作深度學(xué)習(xí)的學(xué)習(xí)材料。


To recognize shapes, first learn to generate images, 2006.

多倫多大學(xué)的內(nèi)部講義。目前還沒找到。


A fast learning algorithm for deep belief nets, 2006.

Hinton關(guān)于DBNs的開山之作,也就是前面提到的引領(lǐng)性的文章。在這篇論文中,作者詳細(xì)闡述了DBNs的方方面面,論證了其和一組層疊的RBMs的等價(jià)性,然后引出DBNs的學(xué)習(xí)算法。(這篇還真得好好看幾遍)


Reducing the dimensionality of data with neural networks, 2006.

未讀,據(jù)說是Science上的大作,可算作一個(gè)里程碑,標(biāo)志著深度學(xué)習(xí)總算有了高效的可行的算法。


A practical guide to training restricted boltzmann machines, 2010.

訓(xùn)練RBM的指導(dǎo)書,里面對一些參數(shù)的設(shè)置也說明得比較清楚,
如果要自己寫這方面的code,這篇可以說是必讀的了,俺可是花了一個(gè)禮拜才算是把這個(gè)弄清楚七八成,再花了一個(gè)禮拜才整出了code。



The difficulty of training deep architectures and the effect of unsupervised pretraining, 2009.

Why Does Unsupervised Pre-training Help Deep Learning?, 2010.

闡述了非監(jiān)督預(yù)訓(xùn)練的作用。這兩篇可以結(jié)合起來一起看。

目前先整理這么多,由于RBM在監(jiān)督學(xué)習(xí)和未監(jiān)督學(xué)習(xí)的code還在整,目前只用了CD算法,用在識別手寫體和去 噪,效果是已經(jīng)出來,但由于是對照著那篇RBM的指導(dǎo)書來寫的,代碼方面比較凌亂,所以還得花時(shí)間再整理整理,下次再把原理和結(jié)合一小點(diǎn)偽代碼放到 blog上吧。

關(guān)于RBM和CD

在 神經(jīng)網(wǎng)絡(luò)中,兩層神經(jīng)網(wǎng)絡(luò)(即一個(gè)hidden層和一個(gè)output層,visible層不算在內(nèi))的建模能力是很強(qiáng)的,但要求hidden層的節(jié)點(diǎn)數(shù)夠 多,但節(jié)點(diǎn)數(shù)太多就會(huì)導(dǎo)致計(jì)算量的復(fù)雜,矩陣的維護(hù)會(huì)相當(dāng)大。一個(gè)很好想到的方法就是將層數(shù)加大,通過層數(shù)的增多來緩解單層中節(jié)點(diǎn)數(shù)過多的負(fù)擔(dān),比如設(shè)置 兩個(gè)hidden層,每層100個(gè)節(jié)點(diǎn),就相當(dāng)于單個(gè)hidden層100×100個(gè)節(jié)點(diǎn)的建模能力,同理三個(gè)hidden層,每層分別是100、 200、300個(gè)節(jié)點(diǎn),就相當(dāng)于單層的100×200×300個(gè)節(jié)點(diǎn)的建模能力。然而這樣做的問題在于,當(dāng)層數(shù)大于2時(shí),經(jīng)典的訓(xùn)練方法效果會(huì)較差,因?yàn)?參數(shù)的局部極小值太多,容易收斂到一個(gè)不好的極值。Hinton把RBM(Restricted Boltzmann Machine)層疊在一起,訓(xùn)練出權(quán)值,然后把這個(gè)權(quán)值當(dāng)成是下一個(gè)RBM層的輸入作為權(quán)值的初始值,利用傳統(tǒng)的梯度下降法去訓(xùn)練網(wǎng)絡(luò),得到了更好的結(jié) 果,也即在每個(gè)RBM層通過篩選得到較好的參數(shù)初始值,使得最后的結(jié)果更好。

Boltzmann Machine其實(shí)是一種無向圖,里面的節(jié)點(diǎn)是互相連接的,但不一定是全連接,也即不是每個(gè)節(jié)點(diǎn)都兩兩相連,連接著的兩個(gè)節(jié)點(diǎn)之間就有一個(gè)權(quán)值。為理解方 便就假設(shè)節(jié)點(diǎn)只能取值為0或者1,有些節(jié)點(diǎn)值是已知的,有些是未知的,把已知的節(jié)點(diǎn)集合記為V,未知的節(jié)點(diǎn)集合記為H,這樣就把所有節(jié)點(diǎn)分成兩個(gè)集合,其 實(shí)集合V就可以認(rèn)為是visible層,集合H就可以認(rèn)為是hidden層。如果hidden層中的節(jié)點(diǎn)都不互相連接,visible層中的節(jié)點(diǎn)也都不互 相連接,那么就成為了RBM模型。

為了理解方便,考慮訓(xùn)練樣本是一些二值圖像, 將其進(jìn)行向量化,得到二值向量的一個(gè)集合作為訓(xùn)練集,這些訓(xùn)練集就可以構(gòu)建一個(gè)兩層的成為RBM的網(wǎng)絡(luò),對于這些像素值就可以關(guān)聯(lián)為visible層中的 節(jié)點(diǎn),因?yàn)樗鼈兿袼刂凳恰笨梢姷摹?像素值已知),特征的檢測器就關(guān)聯(lián)為hidden層中的節(jié)點(diǎn),根據(jù)Hopfiled(了解神經(jīng)網(wǎng)絡(luò)的應(yīng)該沒什么人不知 道他了,Hopfiled Network)在1982年給出的一個(gè)能量函數(shù)的定義,定義一個(gè)函數(shù)來標(biāo)記hidden中的某一個(gè)節(jié)點(diǎn)h和visible層中的某一個(gè)節(jié)點(diǎn)v之間的能 量:


010413_1448_deeplea1.png (1)

其中 010413_1448_deeplea2.png 、 010413_1448_deeplea3.png 分別是visible層和hidden層的狀態(tài)值, 010413_1448_deeplea4.png 010413_1448_deeplea5.png 分別是它們的bias值, 010413_1448_deeplea6.png 就是兩個(gè)節(jié)點(diǎn)之間的weight。而網(wǎng)絡(luò)通過另一個(gè)能量函數(shù)給每一對 010413_1448_deeplea7.png 節(jié)點(diǎn)對分配了一個(gè)概率值:

010413_1448_deeplea8.png (2)

而網(wǎng)絡(luò)給每個(gè)visible層節(jié)點(diǎn)分配的概率值就是把所有可能的與它相連的hidden層節(jié)點(diǎn)的概率值相加,也即:


010413_1448_deeplea9.png (3)

在 傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)中就可以知道,網(wǎng)絡(luò)分配給每個(gè)訓(xùn)練樣本的概率值是可以調(diào)節(jié)的,通過對weight和bias的調(diào)整來使該樣本的能量降低并提高其它樣本的能 量,就可以使這個(gè)概率值變大,這其實(shí)從(2)式也可以看出,隨著能量遞增,概率值是遞減的。由于能量是作為指數(shù),所以為了求解方便就加上了取對數(shù)log操 作,對log(p(v))關(guān)于weight求導(dǎo)來求得極值,所以得:


010413_1448_deeplea10.png (4)

<>表示求期望,式子第一項(xiàng)是指已知樣本集時(shí), 010413_1448_deeplea11.png 的期望,這時(shí)的 010413_1448_deeplea12.png 是由樣本確定的,而 010413_1448_deeplea13.png 是未知的,第二項(xiàng)是模型中 010413_1448_deeplea14.png 的期望,這時(shí)的 010413_1448_deeplea15.png 010413_1448_deeplea16.png 均是未知的。由于在RBM中,hidden層的節(jié)點(diǎn)并沒有直接相連,所以要獲取 010413_1448_deeplea17.png 的無偏采樣是可以的,對于一個(gè)隨機(jī)選取的訓(xùn)練樣本 010413_1448_deeplea18.png ,其每一個(gè)hidden層節(jié)點(diǎn) 010413_1448_deeplea19.png 狀態(tài)量為1的概率是:

010413_1448_deeplea20.png (5)

其中 010413_1448_deeplea21.png 是logistic sigmoid函數(shù)也即 010413_1448_deeplea22.png 。

同理,在visible層的節(jié)點(diǎn)并沒有直接相連,所以要獲取visible層節(jié)點(diǎn)狀態(tài)量的無偏采樣也是可以的,對于一個(gè)已知的hidden層的向量h,由其反退回去得到 010413_1448_deeplea23.png 的狀態(tài)量為1的概率值是:

010413_1448_deeplea24.png (6)

然而,要得到 010413_1448_deeplea25.png 的無偏采樣,就沒有那么容易了。它可以通過抽樣法得到,隨機(jī)選定一個(gè)visible層的節(jié)點(diǎn)由(6)式得到 010413_1448_deeplea26.png ,將其結(jié)果代入(5)式得到 010413_1448_deeplea27.png ,從而得到 010413_1448_deeplea28.png 的第一個(gè)采樣,再將(5)式子結(jié)果代入(6)式,(6)結(jié)果代入(5),從而得到 010413_1448_deeplea29.png 的第二個(gè)采樣,如此反復(fù),最后這個(gè)抽樣過程得到的抽樣分布就收斂于模型的真實(shí)分布 010413_1448_deeplea30.png ,這個(gè)采樣過程其實(shí)就是Gibbs采樣,Gibbs采樣是Metropolis-Hastings算法得到的特殊情況,而Metropolis- Hastings算法其實(shí)就是Markov Chain Monte Carlo(MCMC)算法的一種,用于產(chǎn)生Markov Chain。這種方式需要一個(gè)很長的采樣過程。Hinton提出了一個(gè)較為快速的方法,他先把所有的visible層節(jié)點(diǎn)的狀態(tài)設(shè)置為一個(gè)向量,使用 (5)式得到所有hidden層節(jié)點(diǎn)的概率值,并根據(jù)這個(gè)概率值將節(jié)點(diǎn)設(shè)置為1或者0(將概率值與一個(gè)隨機(jī)生成的(0,1)之間的浮點(diǎn)數(shù)去比較,大于該隨 機(jī)數(shù)則該節(jié)點(diǎn)狀態(tài)量置為1,否則為0),再由(6)式返回計(jì)算visible層節(jié)點(diǎn)值(也即重構(gòu)過程),進(jìn)而得到 010413_1448_deeplea31.png 的一個(gè)估計(jì),也即權(quán)重weight的更新方式由
010413_1448_deeplea32.png (7)

變?yōu)椋?br>
010413_1448_deeplea33.png (8)

這種方式雖然只是粗略近似訓(xùn)練數(shù)據(jù)的log概率的梯度,但是學(xué)習(xí)效果卻還是很好,其學(xué)習(xí)規(guī)則更接近于另一個(gè)決策函數(shù)的極值化,這個(gè)函 數(shù)是Contrastive Divergence(CD),也就是兩個(gè)Kullback-Liebler divergences(KL divergences)的差值。
在使用CD時(shí),必須注意要把hidden節(jié)點(diǎn)值置為二值化形式(0或1),而不是直接采用其概率值本身,因?yàn)檫@樣做的話,在進(jìn)行重構(gòu)的時(shí)候,每個(gè) hidden節(jié)點(diǎn)就和visible節(jié)點(diǎn)的真實(shí)值發(fā)生了聯(lián)系,這會(huì)導(dǎo)致違反如下基本規(guī)則:每個(gè)hidden節(jié)點(diǎn)最多只能有一個(gè)狀態(tài)量,也即它不能既是0又 是1。然而,在最后一次更新hidden節(jié)點(diǎn)時(shí),就不可以使用二值狀態(tài)量了,因?yàn)榇藭r(shí)已經(jīng)沒有什么是依賴于”哪個(gè)狀態(tài)量被選中”,也即哪個(gè)狀態(tài)為0或?yàn)? 并不造成什么影響,所以應(yīng)該是使用(5)式所得的概率值本身,以避免不必要的采樣噪聲,在使用CDn時(shí)只有最后一次更新才可以如此使用概率值本身。
RBM的指導(dǎo)書中還提到,在選擇用于學(xué)習(xí)的數(shù)據(jù)時(shí),假設(shè)visible層節(jié)點(diǎn)是使用真實(shí)的概率值而不是使用隨機(jī)的二值狀態(tài),那么獲取visible層與hidden層節(jié)點(diǎn)連接數(shù)據(jù)的方式有兩種: 010413_1448_deeplea34.png 或者 010413_1448_deeplea35.png ,其中 010413_1448_deeplea36.png 是一個(gè)概率值,而 010413_1448_deeplea37.png 以這個(gè)概率值取值為1。使用第一種方式更接近于RBM的數(shù)學(xué)模型,而使用第二種方式能有較少的采樣噪聲且學(xué)習(xí)速度更快。
關(guān)于初始weight和bias的設(shè)置方面,RBM指導(dǎo)書建議,weight初始化為一些小的隨機(jī)制,這些隨機(jī)值服從均值為0、方差為0.01的高斯分 布,使用較大的值可以加速這個(gè)學(xué)習(xí)過程,但是學(xué)習(xí)效果卻不是很好,而且要注意確保初始值不會(huì)使visible節(jié)點(diǎn)的概率值非常接近0或者1,以避免早熟。 bias的初始值,通常visible層節(jié)點(diǎn)狀態(tài)值為1的,bias初始值設(shè)為 010413_1448_deeplea38.png 。

根據(jù)RBM指導(dǎo)書,本人使用單層無監(jiān)督訓(xùn)練, 將結(jié)果用于去噪的實(shí)驗(yàn),訓(xùn)練樣本為5000,訓(xùn)練時(shí)間約為1.5分鐘,再從測試樣本集中隨機(jī)選擇70個(gè)進(jìn)行測試,運(yùn)行時(shí)間大約為12毫秒。在進(jìn)行分類識別 的實(shí)驗(yàn)中,只使用單層的RBM,測試樣本為1000時(shí)識別率可以達(dá)到89%以上,耗時(shí)約為62毫秒;多層的RBM由于涉及到隱層節(jié)點(diǎn)數(shù)的設(shè)置,所以還需要 進(jìn)行多種嘗試才可以得到較佳效果(曾嘗試過三個(gè)隱層,節(jié)點(diǎn)數(shù)分別為100、200、300,識別率為90.1%,時(shí)間約為160毫秒),但可以肯定的是識 別率是在單層效果之上。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4282.html

相關(guān)文章

  • Deep Learning深度學(xué)習(xí)學(xué)習(xí)筆記整理

    摘要:深度學(xué)習(xí)學(xué)習(xí)筆記整理系列作者聲明該的學(xué)習(xí)系列是整理自網(wǎng)上很大牛和機(jī)器學(xué)習(xí)專家所無私奉獻(xiàn)的資料的。但是自年以來,機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。 Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理系列 [email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0? 2013-04-08聲明:1)該Deep Lea...

    Cheriselalala 評論0 收藏0
  • Python入門深度學(xué)習(xí)完整指南

    摘要:通過書籍學(xué)習(xí),比如除了上述的先學(xué)知識,你還應(yīng)該了解一些流行的深度學(xué)習(xí)庫和運(yùn)行他們的語言。你也可以查看查看的中的第講,概要性的了解一些深度學(xué)習(xí)庫。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/cd0... 原文:https://www.analyticsvidhya.c... 介紹 ...

    ztyzz 評論0 收藏0
  • DeepLearning.ai 深度學(xué)習(xí)筆記》發(fā)布,黃海廣博士整理

    摘要:在這堂課中,學(xué)生將可以學(xué)習(xí)到深度學(xué)習(xí)的基礎(chǔ),學(xué)會(huì)構(gòu)建神經(jīng)網(wǎng)絡(luò),包括和等。課程中也會(huì)有很多實(shí)操項(xiàng)目,幫助學(xué)生更好地應(yīng)用自己學(xué)到的深度學(xué)習(xí)技術(shù),解決真實(shí)世界問題。 深度學(xué)習(xí)入門首推課程就是吳恩達(dá)的深度學(xué)習(xí)專項(xiàng)課程系列的 5 門課。該專項(xiàng)課程最大的特色就是內(nèi)容全面、通俗易懂并配備了豐富的實(shí)戰(zhàn)項(xiàng)目。今天,給大家推薦一份關(guān)于該專項(xiàng)課程的核心筆記!這份筆記只能用兩個(gè)字形容:全面! showImg(...

    wenhai.he 評論0 收藏0

發(fā)表評論

0條評論

最新活動(dòng)
閱讀需要支付1元查看
<