摘要:修正線性單元,是神經(jīng)網(wǎng)絡(luò)中最常用的激活函數(shù)。顧名思義,值激活函數(shù)返回輸入的值。如同余弦函數(shù),或簡(jiǎn)單正弦函數(shù)激活函數(shù)為神經(jīng)網(wǎng)絡(luò)引入了周期性。此外,激活函數(shù)為零點(diǎn)對(duì)稱的奇函數(shù)。
在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)決定來(lái)自給定輸入集的節(jié)點(diǎn)的輸出,其中非線性激活函數(shù)允許網(wǎng)絡(luò)復(fù)制復(fù)雜的非線性行為。正如絕大多數(shù)神經(jīng)網(wǎng)絡(luò)借助某種形式的梯度下降進(jìn)行優(yōu)化,激活函數(shù)需要是可微分(或者至少是幾乎完全可微分的)。此外,復(fù)雜的激活函數(shù)也許產(chǎn)生一些梯度消失或爆炸的問題。因此,神經(jīng)網(wǎng)絡(luò)傾向于部署若干個(gè)特定的激活函數(shù)(identity、sigmoid、ReLU 及其變體)。
下面是 26 個(gè)激活函數(shù)的圖示及其一階導(dǎo)數(shù),圖的右側(cè)是一些與神經(jīng)網(wǎng)絡(luò)相關(guān)的屬性。
1. Step
激活函數(shù) Step 更傾向于理論而不是實(shí)際,它模仿了生物神經(jīng)元要么全有要么全無(wú)的屬性。它無(wú)法應(yīng)用于神經(jīng)網(wǎng)絡(luò),因?yàn)槠鋵?dǎo)數(shù)是 0(除了零點(diǎn)導(dǎo)數(shù)無(wú)定義以外),這意味著基于梯度的優(yōu)化方法并不可行。
2. Identity
通過激活函數(shù) Identity,節(jié)點(diǎn)的輸入等于輸出。它完美適合于潛在行為是線性(與線性回歸相似)的任務(wù)。當(dāng)存在非線性,多帶帶使用該激活函數(shù)是不夠的,但它依然可以在最終輸出節(jié)點(diǎn)上作為激活函數(shù)用于回歸任務(wù)。
3. ReLU
修正線性單元(Rectified linear unit,ReLU)是神經(jīng)網(wǎng)絡(luò)中最常用的激活函數(shù)。它保留了 step 函數(shù)的生物學(xué)啟發(fā)(只有輸入超出閾值時(shí)神經(jīng)元才激活),不過當(dāng)輸入為正的時(shí)候,導(dǎo)數(shù)不為零,從而允許基于梯度的學(xué)習(xí)(盡管在 x=0 的時(shí)候,導(dǎo)數(shù)是未定義的)。使用這個(gè)函數(shù)能使計(jì)算變得很快,因?yàn)闊o(wú)論是函數(shù)還是其導(dǎo)數(shù)都不包含復(fù)雜的數(shù)學(xué)運(yùn)算。然而,當(dāng)輸入為負(fù)值的時(shí)候,ReLU 的學(xué)習(xí)速度可能會(huì)變得很慢,甚至使神經(jīng)元直接無(wú)效,因?yàn)榇藭r(shí)輸入小于零而梯度為零,從而其權(quán)重?zé)o法得到更新,在剩下的訓(xùn)練過程中會(huì)一直保持靜默。
4. Sigmoid
Sigmoid 因其在 logistic 回歸中的重要地位而被人熟知,值域在 0 到 1 之間。Logistic Sigmoid(或者按通常的叫法,Sigmoid)激活函數(shù)給神經(jīng)網(wǎng)絡(luò)引進(jìn)了概率的概念。它的導(dǎo)數(shù)是非零的,并且很容易計(jì)算(是其初始輸出的函數(shù))。然而,在分類任務(wù)中,sigmoid 正逐漸被 Tanh 函數(shù)取代作為標(biāo)準(zhǔn)的激活函數(shù),因?yàn)楹笳邽槠婧瘮?shù)(關(guān)于原點(diǎn)對(duì)稱)。
5. Tanh
在分類任務(wù)中,雙曲正切函數(shù)(Tanh)逐漸取代 Sigmoid 函數(shù)作為標(biāo)準(zhǔn)的激活函數(shù),其具有很多神經(jīng)網(wǎng)絡(luò)所鐘愛的特征。它是完全可微分的,反對(duì)稱,對(duì)稱中心在原點(diǎn)。為了解決學(xué)習(xí)緩慢和/或梯度消失問題,可以使用這個(gè)函數(shù)的更加平緩的變體(log-log、softsign、symmetrical sigmoid 等等)
6. Leaky ReLU
經(jīng)典(以及廣泛使用的)ReLU 激活函數(shù)的變體,帶泄露修正線性單元(Leaky ReLU)的輸出對(duì)負(fù)值輸入有很小的坡度。由于導(dǎo)數(shù)總是不為零,這能減少靜默神經(jīng)元的出現(xiàn),允許基于梯度的學(xué)習(xí)(雖然會(huì)很慢)。
7. PReLU
參數(shù)化修正線性單元(Parameteric Rectified Linear Unit,PReLU)屬于 ReLU 修正類激活函數(shù)的一員。它和 RReLU 以及 Leaky ReLU 有一些共同點(diǎn),即為負(fù)值輸入添加了一個(gè)線性項(xiàng)。而最關(guān)鍵的區(qū)別是,這個(gè)線性項(xiàng)的斜率實(shí)際上是在模型訓(xùn)練中學(xué)習(xí)到的。
8. RReLU
隨機(jī)帶泄露的修正線性單元(Randomized Leaky Rectified Linear Unit,RReLU)也屬于 ReLU 修正類激活函數(shù)的一員。和 Leaky ReLU 以及 PReLU 很相似,為負(fù)值輸入添加了一個(gè)線性項(xiàng)。而最關(guān)鍵的區(qū)別是,這個(gè)線性項(xiàng)的斜率在每一個(gè)節(jié)點(diǎn)上都是隨機(jī)分配的(通常服從均勻分布)。
9. ELU
指數(shù)線性單元(Exponential Linear Unit,ELU)也屬于 ReLU 修正類激活函數(shù)的一員。和 PReLU 以及 RReLU 類似,為負(fù)值輸入添加了一個(gè)非零輸出。和其它修正類激活函數(shù)不同的是,它包括一個(gè)負(fù)指數(shù)項(xiàng),從而防止靜默神經(jīng)元出現(xiàn),導(dǎo)數(shù)收斂為零,從而提高學(xué)習(xí)效率。
10. SELU
擴(kuò)展指數(shù)線性單元(Scaled Exponential Linear Unit,SELU)是激活函數(shù)指數(shù)線性單元(ELU)的一個(gè)變種。其中λ和α是固定數(shù)值(分別為 1.0507 和 1.6726)。這些值背后的推論(零均值/單位方差)構(gòu)成了自歸一化神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)(SNN)。
11. SReLU
S 型整流線性激活單元(S-shaped Rectified Linear Activation Unit,SReLU)屬于以 ReLU 為代表的整流激活函數(shù)族。它由三個(gè)分段線性函數(shù)組成。其中兩種函數(shù)的斜度,以及函數(shù)相交的位置會(huì)在模型訓(xùn)練中被學(xué)習(xí)。
12. Hard Sigmoid
Hard Sigmoid 是 Logistic Sigmoid 激活函數(shù)的分段線性近似。它更易計(jì)算,這使得學(xué)習(xí)計(jì)算的速度更快,盡管首次派生值為零可能導(dǎo)致靜默神經(jīng)元/過慢的學(xué)習(xí)速率(詳見 ReLU)。
13. Hard Tanh
Hard Tanh 是 Tanh 激活函數(shù)的線性分段近似。相較而言,它更易計(jì)算,這使得學(xué)習(xí)計(jì)算的速度更快,盡管首次派生值為零可能導(dǎo)致靜默神經(jīng)元/過慢的學(xué)習(xí)速率(詳見 ReLU)。
14. LeCun Tanh
LeCun Tanh(也被稱作 Scaled Tanh)是 Tanh 激活函數(shù)的擴(kuò)展版本。它具有以下幾個(gè)可以改善學(xué)習(xí)的屬性:f(± 1) = ±1;二階導(dǎo)數(shù)在 x=1 較大化;且有效增益接近 1。
15. ArcTan
視覺上類似于雙曲正切(Tanh)函數(shù),ArcTan 激活函數(shù)更加平坦,這讓它比其他雙曲線更加清晰。在默認(rèn)情況下,其輸出范圍在-π/2 和π/2 之間。其導(dǎo)數(shù)趨向于零的速度也更慢,這意味著學(xué)習(xí)的效率更高。但這也意味著,導(dǎo)數(shù)的計(jì)算比 Tanh 更加昂貴。
16. Softsign
Softsign 是 Tanh 激活函數(shù)的另一個(gè)替代選擇。就像 Tanh 一樣,Softsign 是反對(duì)稱、去中心、可微分,并返回-1 和 1 之間的值。其更平坦的曲線與更慢的下降導(dǎo)數(shù)表明它可以更高效地學(xué)習(xí)。另一方面,導(dǎo)數(shù)的計(jì)算比 Tanh 更麻煩。
17. SoftPlus
作為 ReLU 的一個(gè)不錯(cuò)的替代選擇,SoftPlus 能夠返回任何大于 0 的值。與 ReLU 不同,SoftPlus 的導(dǎo)數(shù)是連續(xù)的、非零的,無(wú)處不在,從而防止出現(xiàn)靜默神經(jīng)元。然而,SoftPlus 另一個(gè)不同于 ReLU 的地方在于其不對(duì)稱性,不以零為中心,這興許會(huì)妨礙學(xué)習(xí)。此外,由于導(dǎo)數(shù)常常小于 1,也可能出現(xiàn)梯度消失的問題。
18. Signum
激活函數(shù) Signum(或者簡(jiǎn)寫為 Sign)是二值階躍激活函數(shù)的擴(kuò)展版本。它的值域?yàn)?[-1,1],原點(diǎn)值是 0。盡管缺少階躍函數(shù)的生物動(dòng)機(jī),Signum 依然是反對(duì)稱的,這對(duì)激活函數(shù)來(lái)說是一個(gè)有利的特征。
19. Bent Identity
激活函數(shù) Bent Identity 是介于 Identity 與 ReLU 之間的一種折衷選擇。它允許非線性行為,盡管其非零導(dǎo)數(shù)有效提升了學(xué)習(xí)并克服了與 ReLU 相關(guān)的靜默神經(jīng)元的問題。由于其導(dǎo)數(shù)可在 1 的任意一側(cè)返回值,因此它可能容易受到梯度爆炸和消失的影響。
20. Symmetrical Sigmoid
Symmetrical Sigmoid 是另一個(gè) Tanh 激活函數(shù)的變種(實(shí)際上,它相當(dāng)于輸入減半的 Tanh)。和 Tanh 一樣,它是反對(duì)稱的、零中心、可微分的,值域在 -1 到 1 之間。它更平坦的形狀和更慢的下降派生表明它可以更有效地進(jìn)行學(xué)習(xí)。
21. Log Log
Log Log 激活函數(shù)(由上圖 f(x) 可知該函數(shù)為以 e 為底的嵌套指數(shù)函數(shù))的值域?yàn)?[0,1],Complementary Log Log 激活函數(shù)有潛力替代經(jīng)典的 Sigmoid 激活函數(shù)。該函數(shù)飽和地更快,且零點(diǎn)值要高于 0.5。
22. Gaussian
高斯激活函數(shù)(Gaussian)并不是徑向基函數(shù)網(wǎng)絡(luò)(RBFN)中常用的高斯核函數(shù),高斯激活函數(shù)在多層感知機(jī)類的模型中并不是很流行。該函數(shù)處處可微且為偶函數(shù),但一階導(dǎo)會(huì)很快收斂到零。
23. Absolute
顧名思義,值(Absolute)激活函數(shù)返回輸入的值。該函數(shù)的導(dǎo)數(shù)除了零點(diǎn)外處處有定義,且導(dǎo)數(shù)的量值處處為 1。這種激活函數(shù)一定不會(huì)出現(xiàn)梯度爆炸或消失的情況。
24. Sinusoid
如同余弦函數(shù),Sinusoid(或簡(jiǎn)單正弦函數(shù))激活函數(shù)為神經(jīng)網(wǎng)絡(luò)引入了周期性。該函數(shù)的值域?yàn)?[-1,1],且導(dǎo)數(shù)處處連續(xù)。此外,Sinusoid 激活函數(shù)為零點(diǎn)對(duì)稱的奇函數(shù)。
25. Cos
如同正弦函數(shù),余弦激活函數(shù)(Cos/Cosine)為神經(jīng)網(wǎng)絡(luò)引入了周期性。它的值域?yàn)?[-1,1],且導(dǎo)數(shù)處處連續(xù)。和 Sinusoid 函數(shù)不同,余弦函數(shù)為不以零點(diǎn)對(duì)稱的偶函數(shù)。
26. Sinc
Sinc 函數(shù)(全稱是 Cardinal Sine)在信號(hào)處理中尤為重要,因?yàn)樗碚髁司匦魏瘮?shù)的傅立葉變換(Fourier transform)。作為一種激活函數(shù),它的優(yōu)勢(shì)在于處處可微和對(duì)稱的特性,不過它比較容易產(chǎn)生梯度消失的問題。
原文鏈接:https://dashee87.github.io/data%20science/deep%20learning/visualising-activation-functions-in-neural-networks/
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4636.html
摘要:激活函數(shù)介紹形函數(shù)函數(shù)是神經(jīng)網(wǎng)絡(luò)初期的激活函數(shù)。其他不常用的激活函數(shù)如反正切,,以及同樣減輕了以上問題。的意思就是對(duì)于一個(gè)個(gè)節(jié)點(diǎn)的隱層,使用作為激活函數(shù)的神經(jīng)網(wǎng)絡(luò)。實(shí)際上這次的實(shí)驗(yàn)中所有系的激活函數(shù)除了,使用都收斂的比較快。 前言 簡(jiǎn)單來(lái)說,激活函數(shù)在神經(jīng)網(wǎng)絡(luò)里的作用就是引入Non-linearity。假如沒有激活函數(shù)的話,一個(gè)多層的神經(jīng)網(wǎng)絡(luò)等同于一個(gè)一層的神經(jīng)網(wǎng)絡(luò)。簡(jiǎn)單來(lái)說,一個(gè)神經(jīng)...
摘要:從到,計(jì)算機(jī)視覺領(lǐng)域和卷積神經(jīng)網(wǎng)絡(luò)每一次發(fā)展,都伴隨著代表性架構(gòu)取得歷史性的成績(jī)。在這篇文章中,我們將總結(jié)計(jì)算機(jī)視覺和卷積神經(jīng)網(wǎng)絡(luò)領(lǐng)域的重要進(jìn)展,重點(diǎn)介紹過去年發(fā)表的重要論文并討論它們?yōu)槭裁粗匾?。這個(gè)表現(xiàn)不用說震驚了整個(gè)計(jì)算機(jī)視覺界。 從AlexNet到ResNet,計(jì)算機(jī)視覺領(lǐng)域和卷積神經(jīng)網(wǎng)絡(luò)(CNN)每一次發(fā)展,都伴隨著代表性架構(gòu)取得歷史性的成績(jī)。作者回顧計(jì)算機(jī)視覺和CNN過去5年,總結(jié)...
摘要:下面介紹一些值得注意的部分,有些簡(jiǎn)單解釋原理,具體細(xì)節(jié)不能面面俱到,請(qǐng)參考專業(yè)文章主要來(lái)源實(shí)戰(zhàn)那我們直接從拿到一個(gè)問題決定用神經(jīng)網(wǎng)絡(luò)說起。當(dāng)你使用時(shí)可以適當(dāng)減小學(xué)習(xí)率,跑過神經(jīng)網(wǎng)絡(luò)的都知道這個(gè)影響還蠻大。 神經(jīng)網(wǎng)絡(luò)構(gòu)建好,訓(xùn)練不出好的效果怎么辦?明明說好的擬合任意函數(shù)(一般連續(xù))(為什么?可以參考http://neuralnetworksanddeeplearning.com/),說好的足夠...
摘要:即便對(duì)于行家來(lái)說,調(diào)試神經(jīng)網(wǎng)絡(luò)也是一項(xiàng)艱巨的任務(wù)。神經(jīng)網(wǎng)絡(luò)對(duì)于所有失真應(yīng)該具有不變性,你需要特別訓(xùn)練這一點(diǎn)。對(duì)于負(fù)數(shù),會(huì)給出,這意味著函數(shù)沒有激活。換句話說,神經(jīng)元有一部分從未被使用過。這是因?yàn)樵黾痈嗟膶訒?huì)讓網(wǎng)絡(luò)的精度降低。 即便對(duì)于行家來(lái)說,調(diào)試神經(jīng)網(wǎng)絡(luò)也是一項(xiàng)艱巨的任務(wù)。數(shù)百萬(wàn)個(gè)參數(shù)擠在一起,一個(gè)微小的變化就能毀掉所有辛勤工作的成果。然而不進(jìn)行調(diào)試以及可視化,一切就只能靠運(yùn)氣,最后可能...
摘要:循環(huán)神經(jīng)網(wǎng)絡(luò)令語(yǔ)音和自然語(yǔ)言處理達(dá)到了新階段。自歸一化神經(jīng)網(wǎng)絡(luò)對(duì)于擾動(dòng)是具有魯棒性的,它在訓(xùn)練誤差上并沒有高方差見圖。構(gòu)建自歸一化神經(jīng)網(wǎng)絡(luò)我們通過調(diào)整函數(shù)的屬性以構(gòu)建自歸一化神經(jīng)網(wǎng)絡(luò)。 近日,arXiv 上公開的一篇 NIPS 投稿論文《Self-Normalizing Neural Networks》引起了圈內(nèi)極大的關(guān)注,它提出了縮放指數(shù)型線性單元(SELU)而引進(jìn)了自歸一化屬性,該單元主...
閱讀 649·2023-04-26 02:08
閱讀 2669·2021-11-18 10:02
閱讀 3472·2021-11-11 16:55
閱讀 2354·2021-08-17 10:13
閱讀 2915·2019-08-30 15:53
閱讀 696·2019-08-30 15:44
閱讀 2561·2019-08-30 11:10
閱讀 1768·2019-08-29 16:57