摘要:近年來,深度學(xué)習(xí)在計算機感知自然語言處理和控制方面取得了重大進展。位列新澤西州的發(fā)明家名人堂,并獲得年神經(jīng)網(wǎng)絡(luò)先鋒獎年杰出研究獎年終身成就獎和來自墨西哥的名譽博士學(xué)位。
Yann Lecun是卷積網(wǎng)絡(luò)模型的發(fā)明者,該模型被廣泛地應(yīng)用于模式識別應(yīng)用中,因此他也被稱為卷積網(wǎng)絡(luò)之父,是公認的世界人工智能三巨頭之一。 2018年11月08日,他來到加州大學(xué)圣巴巴拉分校,為在場師生作了一場關(guān)于自監(jiān)督學(xué)習(xí)的前沿報告,近日他在twitter上公開了報告的全程錄像以及Slides全文,現(xiàn)為大家編譯如下。
介紹:
11月08日,應(yīng)加州大學(xué)圣巴巴拉分校,統(tǒng)計與應(yīng)用概率學(xué)系(Department of Statistics and Applied Probability)邀請,F(xiàn)acebook副總裁兼人工智能科學(xué)家、紐約大學(xué)數(shù)據(jù)科學(xué)中心創(chuàng)始主任Yann Lecun為在場師生做了一場自監(jiān)督學(xué)習(xí)的前沿報告。
近年來,深度學(xué)習(xí)在計算機感知、自然語言處理和控制方面取得了重大進展。但幾乎所有這些成功都在很大程度上依賴于有監(jiān)督學(xué)習(xí),在監(jiān)督學(xué)習(xí)中,機器被要求預(yù)測人類提供的標(biāo)簽信息,或通過無模型的強化學(xué)習(xí)方法,不斷的嘗試各種行為空間的動作,以期達到收益(reward)較大化。這導(dǎo)致了監(jiān)督學(xué)習(xí)需要大量的標(biāo)記樣本,使得它只適用于特定的任務(wù)。而強化學(xué)習(xí)即使在簡單的學(xué)習(xí)任務(wù)中,也需要與環(huán)境進行大量的交互。相比之下,動物和人類似乎只通過觀察和偶爾的互動便學(xué)會了大量與任務(wù)無關(guān)的關(guān)于世界如何運轉(zhuǎn)的知識。動物學(xué)習(xí)新任務(wù)所需要的訓(xùn)練樣本,以及與世界的互動都非常的少。
我們甚至能在30個小時的練習(xí)中,學(xué)會如何駕駛飛機。那么人類和動物是如何進行有效的學(xué)習(xí)呢?這里將提出一個假設(shè):即預(yù)測模型中的自監(jiān)督學(xué)習(xí),是人工智能方法中必不可少的一部分。有了這些模型,人們就可以預(yù)測結(jié)果并計劃如何行動,好的預(yù)測模型可能是直覺、推理和“常識”的基礎(chǔ),讓我們能夠填補缺失的信息:從過去和現(xiàn)在的經(jīng)驗中預(yù)測未來,或從嘈雜的世界中推斷當(dāng)前的狀態(tài)。有人可能會說,預(yù)測是智力的本質(zhì),在簡要介紹了深度學(xué)習(xí)的現(xiàn)狀之后,我們將討論一些有前途的自監(jiān)督學(xué)習(xí)的原則和方法。
作者簡介:
在人工智能研究領(lǐng)域,Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio一直被公認為深度學(xué)習(xí)三巨頭。
Yann LeCun,自稱中文名“楊立昆”,計算機科學(xué)家,被譽為“卷積網(wǎng)絡(luò)之父”,為卷積神經(jīng)網(wǎng)絡(luò)(CNN,Convolutional Neural Networks)和圖像識別領(lǐng)域做出了重要貢獻,以手寫字體識別、圖像壓縮和人工智能硬件等主題發(fā)表過 190 多份論文,研發(fā)了很多關(guān)于深度學(xué)習(xí)的項目,并且擁有14項相關(guān)的美國專利。他同Léon Bottou和Patrick Haffner等人一起創(chuàng)建了DjVu圖像壓縮技術(shù),同Léon Bottou一起開發(fā)了一種開源的Lush語言,比Matlab功能還要強大,并且也是一位Lisp高手。(Backpropagation,簡稱BP)反向傳播這種現(xiàn)階段常用來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)的算法,就是 LeCun 和其老師“神經(jīng)網(wǎng)絡(luò)之父”Geoffrey Hinton 等科學(xué)家于 20 世紀(jì) 80 年代中期提出的,而后 LeCun 在貝爾實驗室將 BP 應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)中,并將其實用化,推廣到各種圖像相關(guān)任務(wù)中。
Yann LeCun 也是Facebook人工智能研究院院長,紐約大學(xué)的 Silver 教授,隸屬于紐約大學(xué)數(shù)據(jù)科學(xué)中心、Courant 數(shù)學(xué)科學(xué)研究所、神經(jīng)科學(xué)中心和電氣與計算機工程系。加盟Facebook之前,Lecun已在貝爾實驗室工作超過20年,期間他開發(fā)了一套能夠識別手寫數(shù)字的系統(tǒng),叫作LeNet,用到了卷積神經(jīng)網(wǎng)絡(luò),已開源。他在 1983 年在巴黎 ESIEE 獲得電子工程學(xué)位,1987 年在 Université P&M Curie 獲得計算機科學(xué)博士學(xué)位。在完成了多倫多大學(xué)的博士后研究之后,他在 1988 年加入了 AT&T 貝爾實驗室(AT&T Bell Laboratories /Holmdel, NJ),在 1996 年成為 AT&T Labs-Research 的圖像處理研究部門主管。2003 年,他加入紐約大學(xué)獲得教授任職,并在 NEC 研究所(普林斯頓)呆過短暫一段時間。2012 年他成為紐約大學(xué)數(shù)據(jù)科學(xué)中心的創(chuàng)辦主任。2013 年末,他成為 Facebook 的人工智能研究中心(FAIR)負責(zé)人,并仍保持在 NYU 中兼職教學(xué)。從 2015 到 2016 年,Yann LeCun 還是法蘭西學(xué)院的訪問學(xué)者。
LeCun 是 ICLR 的發(fā)起人和常任聯(lián)合主席(general co-chair),并且曾在多個編輯委員會和會議組織委員會任職。他是加拿大高級研究所(Canadian Institute for Advanced Research)機器與大腦學(xué)習(xí)(Learning in Machines and Brains)項目的聯(lián)合主席。他同樣是 IPAM 和 ICERM 的理事會成員。他曾是許多初創(chuàng)公司的顧問,并是 Elements Inc 和 Museami 的聯(lián)合創(chuàng)始人。LeCun 位列新澤西州的發(fā)明家名人堂,并獲得 2014 年 IEEE 神經(jīng)網(wǎng)絡(luò)先鋒獎(Neural Network Pioneer Award)、2015 年 IEEE PAMI 杰出研究獎、2016 年 Lovie 終身成就獎和來自墨西哥 IPN 的名譽博士學(xué)位。
視頻地址:
https://ucsb.app.box.com/s/msam98ewhhk48t60p75glvm9h0fv57fl
內(nèi)容大綱:
1、深度學(xué)習(xí)現(xiàn)狀
2、強化學(xué)習(xí)進展
3、距離真正的人工智能,我們錯過了什么?
4、可微分編程:深度學(xué)習(xí)與推理的結(jié)合
5、學(xué)習(xí)真實世界的預(yù)測模型
6、對抗訓(xùn)練
7、采用對抗訓(xùn)練的視頻預(yù)測方法
8、語義分割中的視頻預(yù)測方法
9、Stochastic Latent-Variable Forward Model:目標(biāo)編碼網(wǎng)絡(luò)
10、AI對未來的影響
內(nèi)容全文:
聲明:文章收集于網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系小編及時處理,謝謝!
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4832.html
摘要:無監(jiān)督式學(xué)習(xí)是突破困境的關(guān)鍵,采用無監(jiān)督學(xué)習(xí)的對抗訓(xùn)練讓擁有真正自我學(xué)習(xí)的能力。如何讓擁有人類的常識認為要用無監(jiān)督式學(xué)習(xí)。強化學(xué)習(xí)是蛋糕上不可或缺的櫻桃,所需要資料量可能大約只有幾個,監(jiān)督式學(xué)習(xí) 6 月 29 日,臺灣大學(xué)。卷積神經(jīng)網(wǎng)絡(luò)之父、FacebookAI 研究院院長 Yann LeCun 以「Deep Learning and the Path to AI」為題,對深度學(xué)習(xí)目前的發(fā)展...
摘要:幾乎沒有人比歲的更能與深度學(xué)習(xí)緊密地聯(lián)系在一起。他于年成為紐約大學(xué)教授,并從此引領(lǐng)了深度學(xué)習(xí)的發(fā)展。最近,深度學(xué)習(xí)及其相關(guān)領(lǐng)域已然成為最活躍的計算機研究領(lǐng)域之一。 本文原載IEEE,作者Lee Gomes,由機器之心翻譯出品,參與成員:電子羊、翬、泥泥劉、赤龍飛、鄭勞蕾、流明。人工智能經(jīng)歷了幾次低潮時期,這些灰暗時光被稱作「AI寒冬」。這里說的不是那段時期,事實上,人工智能如今變得異?;馃幔?..
摘要:主流機器學(xué)習(xí)社區(qū)對神經(jīng)網(wǎng)絡(luò)興趣寡然。對于深度學(xué)習(xí)的社區(qū)形成有著巨大的影響。然而,至少有兩個不同的方法對此都很有效應(yīng)用于卷積神經(jīng)網(wǎng)絡(luò)的簡單梯度下降適用于信號和圖像,以及近期的逐層非監(jiān)督式學(xué)習(xí)之后的梯度下降。 我們終于來到簡史的最后一部分。這一部分,我們會來到故事的尾聲并一睹神經(jīng)網(wǎng)絡(luò)如何在上世紀(jì)九十年代末擺脫頹勢并找回自己,也會看到自此以后它獲得的驚人先進成果?!冈噯枡C器學(xué)習(xí)領(lǐng)域的任何一人,是什...
摘要:多加了這兩層卷積層和匯集層是卷積神經(jīng)網(wǎng)絡(luò)和普通舊神經(jīng)網(wǎng)絡(luò)的主要區(qū)別。卷積神經(jīng)網(wǎng)絡(luò)的操作過程那時,卷積的思想被稱作權(quán)值共享,也在年和關(guān)于反向傳播的延伸分析中得到了切實討論。 導(dǎo)讀:這是《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史》第二部分,這一部分我們會了解BP算法發(fā)展之后一些取得迅猛發(fā)展的研究,稍后我們會看到深度學(xué)習(xí)的關(guān)鍵性基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)獲得視覺隨著訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的謎題被揭開,這個話題再一次變得空前熱門,羅森...
摘要:人工智能的主流算法深度學(xué)習(xí)的歷史,堪稱也是深度學(xué)習(xí)三劍客和共同走過的年艱難而輝煌的不悔人生。之后使用一種稱為監(jiān)督學(xué)習(xí)的方法來訓(xùn)練感知器,以正確區(qū)分不同形狀。表示,多層次神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)并不會使感知器強大到有實用價值。 人工智能的主流算法Deep Learning深度學(xué)習(xí)的歷史,堪稱Deep History, 也是深度學(xué)習(xí)三劍客Geoff Hinton, Yann LeCun 和Yoshua B...
閱讀 2654·2021-11-17 17:00
閱讀 1941·2021-10-11 10:57
閱讀 3785·2021-09-09 11:33
閱讀 951·2021-09-09 09:33
閱讀 3578·2019-08-30 14:20
閱讀 3358·2019-08-29 11:25
閱讀 2831·2019-08-26 13:48
閱讀 767·2019-08-26 11:52