摘要:生物學(xué)上合理的認(rèn)知計(jì)算模型用梯度下降算法訓(xùn)練的經(jīng)典認(rèn)知計(jì)算模型需要將基于準(zhǔn)確的前饋神經(jīng)元突觸權(quán)重的誤差信號(hào)反向傳播,這在生物學(xué)的神經(jīng)系統(tǒng)中被認(rèn)為是不可能的。
反向傳播(BP)算法被認(rèn)為是用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的“事實(shí)上”(de-facto)的方法。它使用前饋權(quán)重的轉(zhuǎn)置,以較精確的方式將輸出層的誤差反向傳播到隱藏層。然而,有人認(rèn)為,這在生物學(xué)上是不合理的,因?yàn)樵谏锷窠?jīng)系統(tǒng)中,帶有準(zhǔn)確輸入權(quán)重的誤差信號(hào)的反向傳播被認(rèn)為是不可能的。在本研究中,基于神經(jīng)科學(xué)和與BP 類似的不對(duì)稱方法的相關(guān)文獻(xiàn),研究者提出了一種在生物學(xué)上合理的神經(jīng)結(jié)構(gòu)范式。具體來說,研究者提出了兩種具有可訓(xùn)練前饋和反饋權(quán)重的雙向?qū)W習(xí)算法。前饋權(quán)重用于將 activation 從輸入中繼到目標(biāo)輸出。反饋權(quán)重則將誤差信號(hào)從輸出層傳遞到隱藏層。與其他和BP類似的不對(duì)稱方法不同,反饋權(quán)重在框架中也很易變,并且被訓(xùn)練來逼近 forward activition。初步結(jié)果表明,研究提出的模型在 MNIST 和 CIFAR-10 數(shù)據(jù)集上優(yōu)于其他和BP類似的不對(duì)稱方法。
論文導(dǎo)讀
反向傳播(BP)算法是反向模式自動(dòng)分化和最速下降法的結(jié)合,它被認(rèn)為是用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)的方法。它以較精確的方式將誤差從輸出層逐層反向傳播到輸入層。然而,有人認(rèn)為,在生物學(xué)上,大腦中涉及較精確的對(duì)稱反向信道的學(xué)習(xí)是不可能的。
在深度學(xué)習(xí)的早期階段,先使用 Boltzmann 機(jī)器進(jìn)行無人監(jiān)督的預(yù)訓(xùn)練,然后再用 BP 進(jìn)行微調(diào),不涉及對(duì)稱權(quán)重,且是基于生物學(xué)機(jī)制的。最近,關(guān)于開發(fā)生物學(xué)上可行且實(shí)用的 BP 替代方案的研究越來越多。
另一方面,歸因于神經(jīng)科學(xué)類的文獻(xiàn),長期增強(qiáng)(LTP)被認(rèn)為是人類記憶和學(xué)習(xí)的重要一步。如在LTP 中引入的,神經(jīng)元之間的強(qiáng)聯(lián)系從神經(jīng)調(diào)節(jié)步驟開始,其中一個(gè)神經(jīng)元將更多的離子受體移動(dòng)到其樹突的膜上。結(jié)果就是,更多的離子被捕獲,從而放大了電脈沖。
?
基于LTP 的原理和反饋權(quán)重易變這一假設(shè),我們提出了一種在生物學(xué)層面更合理的感知范式和兩個(gè)雙向?qū)W習(xí)模型。在這些雙向?qū)W習(xí)模型中,前饋權(quán)重在正向相位調(diào)整,反饋權(quán)重在后向階段被學(xué)習(xí)。我們提出的模型消除了反饋權(quán)重必須是隨機(jī)和固定的假設(shè)。反饋權(quán)重被訓(xùn)練來逼近訓(xùn)練期間的前向激活?;鶞?zhǔn)數(shù)據(jù)集的實(shí)驗(yàn)表明,我們的模型優(yōu)于使用固定反饋權(quán)重來傳輸誤差信號(hào)的 FA (feedback-alignment model)和 DFA(direct feedback-alignment model)。我們還提供了關(guān)于為什么使用自適應(yīng)權(quán)重傳輸誤差信號(hào)優(yōu)于使用固定權(quán)重的初步分析。據(jù)我們所知,這是表明自適應(yīng)非對(duì)稱反饋信道比 DNN 中的隨機(jī)和固定反饋信道更有效的首次研究嘗試。
圖1:BP(Back-propagation)、FA(feedback-alignment)和 DFA (direct feedback-alignment)模型。黑色箭頭代表正向激活路徑。紅色箭頭表示誤差(梯度)傳播路徑。
傳統(tǒng)帶有 BP、FA 和 DFA 的 DNN 是單向的,意味著它們只是學(xué)習(xí)如何將輸入描繪成目標(biāo)輸出。本研究基于神經(jīng)科學(xué)的相關(guān)文獻(xiàn),提出了一種生物學(xué)上合理的計(jì)算機(jī)認(rèn)知模型,并繼而提出了雙向反饋比對(duì)(bidirectional feedback alignment,BFA)和雙向直接反饋比對(duì)(bidirectional direct feedbackalignment,BDFA)模型,分別用針對(duì)前向和后向進(jìn)程的兩組可訓(xùn)練權(quán)重連接神經(jīng)元。
生物學(xué)上合理的認(rèn)知計(jì)算模型
用梯度下降算法訓(xùn)練的經(jīng)典認(rèn)知計(jì)算模型需要將基于準(zhǔn)確的前饋神經(jīng)元突觸權(quán)重的誤差信號(hào)反向傳播,這在生物學(xué)的神經(jīng)系統(tǒng)中被認(rèn)為是不可能的。另一方面,長時(shí)程增強(qiáng)(LTP)被認(rèn)為是生物學(xué)中記憶和認(rèn)知科學(xué)中學(xué)習(xí)的基本要素。
長時(shí)程增強(qiáng)
生物神經(jīng)元由神經(jīng)元突觸連接,包括軸突和樹突,其中軸突發(fā)射信號(hào),下一個(gè)神經(jīng)元的樹突則接收由軸突發(fā)射出的信號(hào)。然而,軸突和樹突被突觸間隙分開,軸突通過向突觸間隙中釋放離子來發(fā)送電脈沖,離子則被樹突細(xì)胞膜上的感受器捕獲。結(jié)構(gòu)如下圖:
圖2:軸突和樹突之間的神經(jīng)連接架構(gòu)
BioPP 模型的組件如下:
?信號(hào)
BioPP 架構(gòu)中有兩套信號(hào):前饋信號(hào)——信號(hào)在網(wǎng)絡(luò)中正向傳播,應(yīng)對(duì)推理任務(wù);錯(cuò)誤信號(hào)——信號(hào)向后傳播,用于調(diào)節(jié)突觸權(quán)重
?權(quán)重
權(quán)重代表了認(rèn)知計(jì)算模型決定從輸入或相鄰神經(jīng)元中捕獲的信號(hào)數(shù)量。應(yīng)該指出,認(rèn)知計(jì)算模型采用的誤差信號(hào)數(shù)量也是由其自身決定的。BioPP 會(huì)基于輸入中的誤差信號(hào),調(diào)整其自身的權(quán)重,然后再將誤差信號(hào)發(fā)送給其他神經(jīng)元。
? 激活和偏差
激活和偏差的定義和用 BP 訓(xùn)練的標(biāo)準(zhǔn) DNN 中的相關(guān)定義沒有什么差別。
BioPP 的架構(gòu)如圖 3 所示,其中綠色的圈是神經(jīng)元,藍(lán)色的曲線代表前向突觸,紅色的曲線代表著后向突觸。藍(lán)色的方塊和紅色的方塊分別是前向突觸和后向突觸的感知器。值得一提的是,根據(jù) BioPP 的定義,權(quán)重是由感知器來調(diào)整的。
圖3:2 個(gè)BioPP之間的神經(jīng)元連接的架構(gòu)
BioPP 有三個(gè)限制:
在輸入權(quán)重時(shí),誤差信號(hào)不能被計(jì)算,因?yàn)檩S突勢(shì)單向地傳遞神經(jīng)信號(hào);
基于內(nèi)部或外部的誤差信號(hào),神經(jīng)元可以在本地學(xué)習(xí)其權(quán)重;
所有輸入的權(quán)重應(yīng)該具有自適應(yīng)性。
FA 和 DFA 中提出的神經(jīng)模型和 BioPP (其中一些權(quán)重是固定的)原則不完全相合。下面我們以 BioPP 原則為基礎(chǔ),優(yōu)化 FA 和 DFA 的反饋權(quán)重,并在基準(zhǔn)數(shù)據(jù)集測(cè)試模型。
雙向訓(xùn)練 BioPP 網(wǎng)絡(luò)
FA 和 DFA 都使用固定隨機(jī)權(quán)重來傳遞誤差信號(hào),以此訓(xùn)練神經(jīng)網(wǎng)絡(luò)。在 BioPP 中,我們使得權(quán)重能夠像一般輸入權(quán)重那樣具有自適應(yīng)性。
圖4:雙向反饋比對(duì)(BFA)。黑色箭頭代表前向激活路徑。紅色箭頭表示誤差(梯度)傳播路徑。
BFA 的整體流程見圖4。BFA 的主要思路是當(dāng)訓(xùn)練一組權(quán)重時(shí),誤差信號(hào)通過其他組權(quán)重在網(wǎng)絡(luò)中逐層傳遞。BFA 滿足了 BioPP 的原則和限制。BFA 和目標(biāo)傳播(TP)間的區(qū)別是,BFA 學(xué)習(xí)輸入特征,并逐層傳播誤差信號(hào)。而 TP 中的各層則還在用自編碼網(wǎng)絡(luò)(Autoencoder)學(xué)習(xí)前一層的輸入。
圖5:雙向直接反饋比對(duì)(BDFA)。黑色箭頭代表前向激活路徑。紅色箭頭表示誤差(梯度)傳播路徑。
BDFA 的總體流程如圖5 所示。BDFA 模型的總體思路是,每個(gè)隱藏層多帶帶計(jì)算損失,并更新相應(yīng)的、連接隱藏層和輸入層的反饋權(quán)重矩陣。
?
接下來,研究者又分析了為什么應(yīng)用于雙向訓(xùn)練模型中的自適應(yīng)反饋權(quán)重總體上說比固定反饋權(quán)重表現(xiàn)更好,并證明了如果反饋權(quán)重可以更好地學(xué)習(xí)描寫輸入特征和輸出特征,訓(xùn)練的整體表現(xiàn)就會(huì)得到提升。之后,研究者又對(duì)在基準(zhǔn)數(shù)據(jù)集上,在不同超參數(shù)設(shè)定的條件下, BFA 和 BDFA ?的性能是否超過了 FA 和 DFA。
?
在論文的最后,研究者指出該研究是據(jù)他們所知的第一次研究嘗試,來論證在DNN 中,自適應(yīng)非對(duì)稱反饋信道比隨機(jī)固定信道要更有效。盡管現(xiàn)在還不清楚大腦是否實(shí)施了自適應(yīng)反饋這一特殊形式,該研究仍然朝著更好理解大腦如何支持從誤差信號(hào)中學(xué)習(xí)這一方向邁出了重要的一步。
?
原文鏈接:https://arxiv.org/abs/1702.07097
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4517.html
摘要:近幾年以卷積神經(jīng)網(wǎng)絡(luò)有什么問題為主題做了多場(chǎng)報(bào)道,提出了他的計(jì)劃。最初提出就成為了人工智能火熱的研究方向。展現(xiàn)了和玻爾茲曼分布間驚人的聯(lián)系其在論文中多次稱,其背后的內(nèi)涵引人遐想。 Hinton 以深度學(xué)習(xí)之父 和 神經(jīng)網(wǎng)絡(luò)先驅(qū) 聞名于世,其對(duì)深度學(xué)習(xí)及神經(jīng)網(wǎng)絡(luò)的諸多核心算法和結(jié)構(gòu)(包括深度學(xué)習(xí)這個(gè)名稱本身,反向傳播算法,受限玻爾茲曼機(jī),深度置信網(wǎng)絡(luò),對(duì)比散度算法,ReLU激活單元,Dropo...
摘要:多加了這兩層卷積層和匯集層是卷積神經(jīng)網(wǎng)絡(luò)和普通舊神經(jīng)網(wǎng)絡(luò)的主要區(qū)別。卷積神經(jīng)網(wǎng)絡(luò)的操作過程那時(shí),卷積的思想被稱作權(quán)值共享,也在年和關(guān)于反向傳播的延伸分析中得到了切實(shí)討論。 導(dǎo)讀:這是《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史》第二部分,這一部分我們會(huì)了解BP算法發(fā)展之后一些取得迅猛發(fā)展的研究,稍后我們會(huì)看到深度學(xué)習(xí)的關(guān)鍵性基礎(chǔ)。神經(jīng)網(wǎng)絡(luò)獲得視覺隨著訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的謎題被揭開,這個(gè)話題再一次變得空前熱門,羅森...
摘要:要學(xué)習(xí)深度學(xué)習(xí),那么首先要熟悉神經(jīng)網(wǎng)絡(luò),簡稱的一些基本概念。網(wǎng)絡(luò)徑向基函數(shù)網(wǎng)絡(luò)是一種單隱層前饋神經(jīng)網(wǎng)絡(luò),它使用徑向基函數(shù)作為隱層神經(jīng)元激活函數(shù),而輸出層則是對(duì)隱層神經(jīng)元輸出的線性組合。 閱讀目錄1. 神經(jīng)元模型2. 感知機(jī)和神經(jīng)網(wǎng)絡(luò)3. 誤差逆?zhèn)鞑ニ惴?. 常見的神經(jīng)網(wǎng)絡(luò)模型5. 深度學(xué)習(xí)6. 參考內(nèi)容目前,深度學(xué)習(xí)(Deep Learning,簡稱DL)在算法領(lǐng)域可謂是大紅大紫,現(xiàn)在不只是...
摘要:導(dǎo)讀這是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史第一部分。實(shí)際上,神經(jīng)網(wǎng)絡(luò)準(zhǔn)確的說應(yīng)該是人工神經(jīng)網(wǎng)絡(luò),就是多層感知機(jī)今天感知機(jī)通常被稱為神經(jīng)元而已,只不過在這個(gè)階段,只有一層輸出層。多層輸出的神經(jīng)網(wǎng)絡(luò)也可以想象一個(gè)與感知機(jī)不同的人工神經(jīng)網(wǎng)絡(luò)。 導(dǎo)讀:這是《神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)簡史》第一部分。這一部分,我們會(huì)介紹1958年感知機(jī)神經(jīng)網(wǎng)絡(luò)的誕生,70年代人工智能寒冬以及1986年BP算法讓神經(jīng)網(wǎng)絡(luò)再度流行起來。深度...
摘要:在普通的全連接網(wǎng)絡(luò)或中,每層神經(jīng)元的信號(hào)只能向上一層傳播,樣本的處理在各個(gè)時(shí)刻獨(dú)立,因此又被成為前向神經(jīng)網(wǎng)絡(luò)。不難想象隨著深度學(xué)習(xí)熱度的延續(xù),更靈活的組合方式更多的網(wǎng)絡(luò)結(jié)構(gòu)將被發(fā)展出來。 從廣義上來說,NN(或是更美的DNN)確實(shí)可以認(rèn)為包含了CNN、RNN這些具體的變種形式。在實(shí)際應(yīng)用中,所謂的深度神經(jīng)網(wǎng)絡(luò)DNN,往往融合了多種已知的結(jié)構(gòu),包括卷積層或是LSTM單元。這里的DNN特指全連接...
閱讀 2390·2023-04-25 19:27
閱讀 3499·2021-11-24 09:39
閱讀 3917·2021-10-08 10:17
閱讀 3407·2019-08-30 13:48
閱讀 1939·2019-08-29 12:26
閱讀 3131·2019-08-28 17:52
閱讀 3545·2019-08-26 14:01
閱讀 3542·2019-08-26 12:19