摘要:微軟研究人員在深度神經(jīng)網(wǎng)絡(luò)上取得突破,使其在性能上能趕上目前較先進(jìn)的語(yǔ)音識(shí)別技術(shù)。上沒(méi)寫那個(gè),不過(guò)我已經(jīng)不大懂了,順帶鏈接還有給的微軟原文鏈接以下為兩個(gè)回答何曉寧多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)。
微軟研究人員在深度神經(jīng)網(wǎng)絡(luò)(deep neural network)上取得突破,以下為兩個(gè)回答:
何曉寧:
多層的好處是可以用較少的參數(shù)表示復(fù)雜的函數(shù)。
在監(jiān)督學(xué)習(xí)中,以前的多層神經(jīng)網(wǎng)絡(luò)的問(wèn)題是容易陷入局部極值點(diǎn)。如果訓(xùn)練樣本足夠充分覆蓋未來(lái)的樣 本,那么學(xué)到的多層權(quán)重可以很好的用來(lái)預(yù)測(cè)新的測(cè)試樣本。但是很多任務(wù)難以得到足夠多的標(biāo)記樣本,在這種情況下,簡(jiǎn)單的模型,比如線性回歸或者決策樹往往 能得到比多層神經(jīng)網(wǎng)絡(luò)更好的結(jié)果(更好的泛化性,更差的訓(xùn)練誤差)。匿名用戶:
人工神經(jīng)網(wǎng)絡(luò)是一個(gè)有很悠久歷史的結(jié)構(gòu), 應(yīng)該是在20世紀(jì)五十年代后期就出現(xiàn)了的. 經(jīng)過(guò)了很多年的發(fā)展, 依然有超多的局限, 比如訓(xùn)練時(shí)間長(zhǎng), 效率地下等等. 在19世紀(jì)的晚期, 又漸漸消失了.?
直 到近幾年, 由于Deep Learning的研究出現(xiàn)了比較大的突破, Deep Neural Network應(yīng)該是伴隨著Deep Learning一起出現(xiàn)的一種人工神經(jīng)網(wǎng)絡(luò)的重大改良. 其模擬了人腦的一些特性,比如人腦具有一個(gè)深度的結(jié)構(gòu),每深入一層就進(jìn)行一次抽象, 認(rèn)知的時(shí)候逐層進(jìn)行, 逐層進(jìn)行抽象. 這種結(jié)構(gòu)在解決一些復(fù)雜的問(wèn)題的時(shí)候有非常明顯地突破性表現(xiàn). 突破了傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)算法的很多局限, 是當(dāng)下非常熱門的研究領(lǐng)域.文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4287.html
摘要:本文將分享一些自己關(guān)于深度學(xué)習(xí)模型調(diào)試技巧的總結(jié)思考以為主。不過(guò)以卷積神經(jīng)網(wǎng)絡(luò)為代表的深層神經(jīng)網(wǎng)絡(luò)一直被詬病,這對(duì)于模型在工業(yè)界的應(yīng)用推廣還是帶來(lái)了一定的阻礙。 作者楊軍,從事大規(guī)模機(jī)器學(xué)習(xí)系統(tǒng)研發(fā)及應(yīng)用相關(guān)工作。本文將分享一些自己關(guān)于深度學(xué)習(xí)模型調(diào)試技巧的總結(jié)思考(以CNN為主)。最近因?yàn)橐恍┬枰?,參與了一些CNN建模調(diào)參的工作,出于個(gè)人習(xí)性,我并不習(xí)慣于通過(guò)單純的trial-and-er...
摘要:深度學(xué)習(xí)學(xué)習(xí)筆記整理系列作者聲明該的學(xué)習(xí)系列是整理自網(wǎng)上很大牛和機(jī)器學(xué)習(xí)專家所無(wú)私奉獻(xiàn)的資料的。但是自年以來(lái),機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。 Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理系列 [email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0? 2013-04-08聲明:1)該Deep Lea...
摘要:對(duì)于大多數(shù)想上手深度學(xué)習(xí)的小伙伴來(lái)說(shuō),我應(yīng)當(dāng)從那篇論文開始讀起這是一個(gè)亙古不變的話題。接下來(lái)的論文將帶你深入理解深度學(xué)習(xí)方法深度學(xué)習(xí)在前沿領(lǐng)域的不同應(yīng)用。 對(duì)于大多數(shù)想上手深度學(xué)習(xí)的小伙伴來(lái)說(shuō),我應(yīng)當(dāng)從那篇論文開始讀起?這是一個(gè)亙古不變的話題。而對(duì)那些已經(jīng)入門的同學(xué)來(lái)說(shuō),了解一下不同方向的論文,也是不時(shí)之需。有沒(méi)有一份完整的深度學(xué)習(xí)論文導(dǎo)引,讓所有人都可以在里面找到想要的內(nèi)容呢?有!今天就給...
摘要:在這堂課中,學(xué)生將可以學(xué)習(xí)到深度學(xué)習(xí)的基礎(chǔ),學(xué)會(huì)構(gòu)建神經(jīng)網(wǎng)絡(luò),包括和等。課程中也會(huì)有很多實(shí)操項(xiàng)目,幫助學(xué)生更好地應(yīng)用自己學(xué)到的深度學(xué)習(xí)技術(shù),解決真實(shí)世界問(wèn)題。 深度學(xué)習(xí)入門首推課程就是吳恩達(dá)的深度學(xué)習(xí)專項(xiàng)課程系列的 5 門課。該專項(xiàng)課程最大的特色就是內(nèi)容全面、通俗易懂并配備了豐富的實(shí)戰(zhàn)項(xiàng)目。今天,給大家推薦一份關(guān)于該專項(xiàng)課程的核心筆記!這份筆記只能用兩個(gè)字形容:全面! showImg(...
摘要:主流機(jī)器學(xué)習(xí)社區(qū)對(duì)神經(jīng)網(wǎng)絡(luò)興趣寡然。對(duì)于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個(gè)不同的方法對(duì)此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡(jiǎn)單梯度下降適用于信號(hào)和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來(lái)到簡(jiǎn)史的最后一部分。這一部分,我們會(huì)來(lái)到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢(shì)并找回自己,也會(huì)看到自此以后它獲得的驚人先進(jìn)成果?!冈噯?wèn)機(jī)器學(xué)習(xí)領(lǐng)域的任何一人,是什...
閱讀 2331·2021-11-23 10:09
閱讀 2898·2021-10-12 10:11
閱讀 2605·2021-09-29 09:35
閱讀 1346·2019-08-30 15:53
閱讀 2272·2019-08-30 11:15
閱讀 2916·2019-08-29 13:01
閱讀 2300·2019-08-28 18:15
閱讀 3369·2019-08-26 12:13