摘要:今日,在第屆神經(jīng)信息處理系統(tǒng)大會(huì)中,百度首席科學(xué)家吳恩達(dá)教授發(fā)表演講利用深度學(xué)習(xí)開發(fā)人工智能應(yīng)用的基本要點(diǎn)。為了方便讀者學(xué)習(xí)和收藏,雷鋒網(wǎng)特地把吳恩達(dá)教授的做為中文版。吳恩達(dá)先講述了常見的深度學(xué)習(xí)模型,然后再著分析端到端學(xué)習(xí)的具體應(yīng)用。
今日,在第 30 屆神經(jīng)信息處理系統(tǒng)大會(huì)(NIPS 2016)中,百度首席科學(xué)家吳恩達(dá)教授發(fā)表演講:《利用深度學(xué)習(xí)開發(fā)人工智能應(yīng)用的基本要點(diǎn)(Nuts and Bolts of Building Applications using Deep Learning)》。
為了方便讀者學(xué)習(xí)和收藏,雷鋒網(wǎng)特地把吳恩達(dá)教授的PPT 做為中文版。
此外,吳恩達(dá)教授曾在今年 9 月 24/25 日也發(fā)表過(guò)同為《Nuts and Bolts of Applying Deep Learning》的演講(1小時(shí)20分鐘),以下是 YouTube 鏈接:
https://www.youtube.com/watch?v=F1ka6a13S9I
一、深度學(xué)習(xí)為何崛起
吳恩達(dá)在開場(chǎng)提到:深度學(xué)習(xí)為何這么火?
答案很簡(jiǎn)單:
第一是因?yàn)橐?guī)模正在推動(dòng)深度學(xué)習(xí)的進(jìn)步。
從傳統(tǒng)算法到小型神經(jīng)網(wǎng)絡(luò)、中型神經(jīng)網(wǎng)絡(luò)最后演化為現(xiàn)在的大型神經(jīng)網(wǎng)絡(luò)。
第二:端到端學(xué)習(xí)的崛起
從下圖中的上半部分可以看出,傳統(tǒng)端到端學(xué)習(xí)是把實(shí)體數(shù)據(jù)表達(dá)成數(shù)字?jǐn)?shù)據(jù),輸出數(shù)字值作為結(jié)果。如退昂識(shí)別最后以整數(shù)標(biāo)簽輸出為結(jié)果。
而現(xiàn)在的端對(duì)端學(xué)習(xí)更為直接純粹,如機(jī)器翻譯:輸入英語(yǔ)文本,輸出法語(yǔ)文本;語(yǔ)音識(shí)別:輸入音頻,輸出文本。但端對(duì)端學(xué)習(xí)需要大量的訓(xùn)練集。
吳恩達(dá)先講述了常見的深度學(xué)習(xí)模型,然后再著分析端到端學(xué)習(xí)的具體應(yīng)用。
二、主要的深度學(xué)習(xí)模型
普通神經(jīng)網(wǎng)絡(luò)
?順序模型 ? (1D ?順序) ?RNN, ?GRU, ?LSTM, ?CTC, ?注意力模型?
?圖像模型 ?2D 和 ?3D 卷積神經(jīng)網(wǎng)絡(luò)?
先進(jìn)/未來(lái) 技術(shù):無(wú)監(jiān)督學(xué)習(xí)(稀疏編碼 ICA, ?SFA,)增強(qiáng)學(xué)習(xí)
三、端到端學(xué)習(xí)應(yīng)用案例:
語(yǔ)音識(shí)別
傳統(tǒng)模型:語(yǔ)音→運(yùn)算特征—(人工設(shè)計(jì)的 MFCC 特征)→音素識(shí)別器—(音素識(shí)別)→最終識(shí)別器→輸出。
端到端學(xué)習(xí):音頻→學(xué)習(xí)算法→轉(zhuǎn)錄結(jié)果;在給定了足夠的有標(biāo)注數(shù)據(jù)(音頻、轉(zhuǎn)錄結(jié)果)時(shí),這種方法的效果會(huì)很好。
自動(dòng)駕駛
傳統(tǒng)模型:攝像頭圖像→檢測(cè)汽車+檢測(cè)行人→路徑規(guī)劃→方向控制。
端到端學(xué)習(xí):攝像頭圖像→學(xué)習(xí)算法→方向控制。
自動(dòng)駕駛對(duì)安全有極高要求,因此需要極高的較精確度。采取純粹的端到端學(xué)習(xí)十分有挑戰(zhàn)性。只在有足夠(x,y)的數(shù)據(jù),來(lái)學(xué)習(xí)足夠復(fù)雜的函數(shù)的情況下,端到端學(xué)習(xí)才有效果。
四、機(jī)器學(xué)習(xí)策略
你經(jīng)常有很多改進(jìn) AI 系統(tǒng)的主意,應(yīng)該怎么做?好的戰(zhàn)略能避免浪費(fèi)數(shù)月精力做無(wú)用的事。
以語(yǔ)音識(shí)別為例,可以把原語(yǔ)音數(shù)據(jù)分割成:
60% 訓(xùn)練集(訓(xùn)練模型)
20% 開發(fā)集(開發(fā)過(guò)程中用于調(diào)參、驗(yàn)證等步驟的數(shù)據(jù)集)
20% 測(cè)試集(測(cè)試時(shí)所使用的數(shù)據(jù)集)
這里面普及幾個(gè)概念:
人類水平的誤差與訓(xùn)練集的誤差之間的差距是可避免的偏差,這部分誤差可以通過(guò)進(jìn)一步的學(xué)習(xí)/模型調(diào)整優(yōu)化來(lái)避免。
訓(xùn)練集和開發(fā)集之間的差距稱為方差,其因?yàn)榕芰瞬煌臄?shù)據(jù)從而導(dǎo)致誤差率變化。
上述兩種偏差合在一起,就是偏差-方差權(quán)衡(bias-variance trade-off)。
機(jī)器學(xué)習(xí)的基本方案
自動(dòng)數(shù)據(jù)合成示例
不同訓(xùn)練、測(cè)試集的分布
假設(shè)你想要為一個(gè)汽車后視鏡產(chǎn)品,開發(fā)語(yǔ)音識(shí)別系統(tǒng)。你有 5000 小時(shí)的普通語(yǔ)音數(shù)據(jù),還有 10 小時(shí)的車內(nèi)數(shù)據(jù)。你怎么對(duì)數(shù)據(jù)分組呢?這是一個(gè)不恰當(dāng)?shù)姆绞剑?/p>
不同訓(xùn)練和測(cè)試集分配
更好的方式:讓開發(fā)和測(cè)試集來(lái)自同樣的分配機(jī)制。
五、機(jī)器學(xué)習(xí)新方案
普通人類、偏差、方差分析
人類的表現(xiàn)水平
當(dāng)機(jī)器學(xué)習(xí)在處理某項(xiàng)任務(wù)上比人類表現(xiàn)還差時(shí),你經(jīng)常會(huì)看到最快的進(jìn)步。
機(jī)器學(xué)習(xí)超越人后,很快就會(huì)靠近貝葉斯最優(yōu)誤差線。
可以依靠人類的直覺(jué):(i)人類提供加標(biāo)簽的數(shù)據(jù)。(ii)進(jìn)行錯(cuò)誤分析,來(lái)理解人是怎么對(duì)樣本正確處理的(iii)預(yù)估偏差/方差。比如,一項(xiàng)圖像識(shí)別任務(wù)的訓(xùn)練誤差 8%, 開發(fā)誤差 10%,你應(yīng)該怎么處理?
六、人工智能產(chǎn)品管理
新的監(jiān)督DL算法的存在,意味著對(duì)使用 DL開發(fā)應(yīng)用的團(tuán)隊(duì)合作,我們?cè)谥匦滤伎脊ぷ髁鞒獭.a(chǎn)品經(jīng)理能幫助 AI 團(tuán)隊(duì),優(yōu)先進(jìn)行最出成果的機(jī)器學(xué)習(xí)任務(wù)。比如,對(duì)于汽車噪音、咖啡館的談話聲、低帶寬音頻、帶口音的語(yǔ)音,你是應(yīng)該提高語(yǔ)音效果呢,還是改善延遲,縮小二進(jìn)制,還是做別的什么?
今天的人工智能能做什么呢?這里給產(chǎn)品經(jīng)理一些啟發(fā):
如果一個(gè)普通人完成一項(xiàng)智力任務(wù)只需不到一秒的思考時(shí)間,我們很可能現(xiàn)在,或者不遠(yuǎn)的將來(lái),用 AI 把該任務(wù)自動(dòng)化。
對(duì)于我們觀察到的具體的、重復(fù)性的事件(比如用戶點(diǎn)擊廣告;快遞花費(fèi)的時(shí)間),我們可以合理地預(yù)測(cè)下一個(gè)事件的結(jié)果(用戶是否點(diǎn)擊下一個(gè)此類廣告)。
產(chǎn)品經(jīng)理和研究員、工程師該如何分工
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4425.html
摘要:是你學(xué)習(xí)從入門到專家必備的學(xué)習(xí)路線和優(yōu)質(zhì)學(xué)習(xí)資源。的數(shù)學(xué)基礎(chǔ)最主要是高等數(shù)學(xué)線性代數(shù)概率論與數(shù)理統(tǒng)計(jì)三門課程,這三門課程是本科必修的。其作為機(jī)器學(xué)習(xí)的入門和進(jìn)階資料非常適合。書籍介紹深度學(xué)習(xí)通常又被稱為花書,深度學(xué)習(xí)領(lǐng)域最經(jīng)典的暢銷書。 showImg(https://segmentfault.com/img/remote/1460000019011569); 【導(dǎo)讀】本文由知名開源平...
摘要:值得一提的是每篇文章都是我用心整理的,編者一貫堅(jiān)持使用通俗形象的語(yǔ)言給我的讀者朋友們講解機(jī)器學(xué)習(xí)深度學(xué)習(xí)的各個(gè)知識(shí)點(diǎn)。今天,紅色石頭特此將以前所有的原創(chuàng)文章整理出來(lái),組成一個(gè)比較合理完整的機(jī)器學(xué)習(xí)深度學(xué)習(xí)的學(xué)習(xí)路線圖,希望能夠幫助到大家。 一年多來(lái),公眾號(hào)【AI有道】已經(jīng)發(fā)布了 140+ 的原創(chuàng)文章了。內(nèi)容涉及林軒田機(jī)器學(xué)習(xí)課程筆記、吳恩達(dá) deeplearning.ai 課程筆記、機(jī)...
摘要:在最近的會(huì)議上,吳恩達(dá)分享了關(guān)于深度學(xué)習(xí)的一些看法。深度學(xué)習(xí)較大的優(yōu)勢(shì)在于它的規(guī)模,從吳恩達(dá)總結(jié)的下圖可以看出當(dāng)數(shù)據(jù)量增加時(shí),深度學(xué)習(xí)模型性能更好。深度學(xué)習(xí)模型如此強(qiáng)大的另一個(gè)原因,是端到端的學(xué)習(xí)方式。然而,深度學(xué)習(xí)卻使它有了一點(diǎn)變化。 在最近的 NIPS 2016 會(huì)議上,吳恩達(dá)分享了關(guān)于深度學(xué)習(xí)的一些看法。我們?cè)诖俗鲆粋€(gè)整理。?深度學(xué)習(xí)較大的優(yōu)勢(shì)在于它的規(guī)模,從吳恩達(dá)總結(jié)的下圖可以看出:...
摘要:的研究興趣涵蓋大多數(shù)深度學(xué)習(xí)主題,特別是生成模型以及機(jī)器學(xué)習(xí)的安全和隱私。與以及教授一起造就了年始的深度學(xué)習(xí)復(fù)興。目前他是僅存的幾個(gè)仍然全身心投入在學(xué)術(shù)界的深度學(xué)習(xí)教授之一。 Andrej Karpathy特斯拉 AI 主管Andrej Karpathy 擁有斯坦福大學(xué)計(jì)算機(jī)視覺(jué)博士學(xué)位,讀博期間師從現(xiàn)任 Google AI 首席科學(xué)家李飛飛,研究卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理上的應(yīng)...
摘要:年月在主辦的的演講,談數(shù)據(jù)科學(xué)家需要知道的深度學(xué)習(xí)知識(shí)。當(dāng)時(shí)還演示了機(jī)器看圖說(shuō)話,機(jī)器問(wèn)答,,的效果。其中就是個(gè),能實(shí)時(shí)對(duì)人臉做建模,替換其他的鬼臉,他開玩笑說(shuō)趕在萬(wàn)圣節(jié)之前上線,以后都不要買道具,一秒變鬼畜。 2015年12月 Andrew Ng在Import IO主辦的ExtractConf的演講,談數(shù)據(jù)科學(xué)家需要知道的深度學(xué)習(xí)知識(shí)。當(dāng)時(shí)還演示了機(jī)器看圖說(shuō)話,機(jī)器問(wèn)答,Dulight,F(xiàn)...
閱讀 2833·2021-10-13 09:48
閱讀 3805·2021-10-13 09:39
閱讀 3607·2021-09-22 16:04
閱讀 1841·2021-09-03 10:48
閱讀 850·2021-08-03 14:04
閱讀 2371·2019-08-29 15:18
閱讀 3413·2019-08-26 12:19
閱讀 2880·2019-08-26 12:08