成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

卷積神經(jīng)網(wǎng)絡(luò)(CNN)之一維卷積、二維卷積、三維卷積詳解

renweihub / 3256人閱讀

摘要:一維卷積常用于序列模型,自然語言處理領(lǐng)域。三維卷積這里采用代數(shù)的方式對三維卷積進行介紹,具體思想與一維卷積二維卷積相同。

由于計算機視覺的大紅大紫,二維卷積的用處范圍最廣。因此本文首先介紹二維卷積,之后再介紹一維卷積與三維卷積的具體流程,并描述其各自的具體應(yīng)用。

1、二維卷積

?? ? 圖中的輸入的數(shù)據(jù)維度為 14 × 14 ,過濾器大小為 5 × 5,二者做卷積,輸出的數(shù)據(jù)維度為 10 × 10( 14 ? 5 + 1 = 10 )。

?? ? 上述內(nèi)容沒有引入channel的概念,也可以說channel的數(shù)量為1。如果將二維卷積中輸入的channel的數(shù)量變?yōu)?,即輸入的數(shù)據(jù)維度變?yōu)椋?4 × 14 × 3)。由于卷積操作中過濾器的 channel 數(shù)量必須與輸入數(shù)據(jù)的channel數(shù)量相同,過濾器大小也變?yōu)?5 × 5 × 3 。在卷積的過程中,過濾器與數(shù)據(jù)在 channel 方向分別卷積,之后將卷積后的數(shù)值相加,即執(zhí)行 10 × 10 次3個數(shù)值相加的操作,最終輸出的數(shù)據(jù)維度為 10 × 10 。

?? ? 以上都是在過濾器數(shù)量為1的情況下所進行的討論。如果將過濾器的數(shù)量增加至16,即16個大小為10 × 10 × 3 的過濾器,最終輸出的數(shù)據(jù)維度就變?yōu)?0 × 10 × 16 。可以理解為分別執(zhí)行每個過濾器的卷積操作,最后將每個卷積的輸出在第三個維度(channel 維度)上進行拼接。

?? ? 二維卷積常用于計算機視覺、圖像處理領(lǐng)域。

2、一維卷積

?? ? 圖中的輸入的數(shù)據(jù)維度為8,過濾器的維度為5。與二維卷積類似,卷積后輸出的數(shù)據(jù)維度為8?5+1=48?5+1=4。

?? ? 如果過濾器數(shù)量仍為1,輸入數(shù)據(jù)的channel數(shù)量變?yōu)?6,即輸入數(shù)據(jù)維度為 8 × 16 。這里channel的概念相當(dāng)于自然語言處理中的embedding,而該輸入數(shù)據(jù)代表8個單詞,其中每個單詞的詞向量維度大小為16。在這種情況下,過濾器的維度由5變?yōu)?5 × 16 ,最終輸出的數(shù)據(jù)維度仍為 4 。

?? ? 如果過濾器數(shù)量為 n,那么輸出的數(shù)據(jù)維度就變?yōu)?4 × n。

?? ? 一維卷積常用于序列模型,自然語言處理領(lǐng)域。

3、三維卷積

這里采用代數(shù)的方式對三維卷積進行介紹,具體思想與一維卷積、二維卷積相同。

?? ? 假設(shè)輸入數(shù)據(jù)的大小為 a1 × a2 × a3,channel數(shù)為 c,過濾器大小為

f,即過濾器維度為 f × f × f × c(一般不寫 channel 的維度),過濾器數(shù)量為 n。

?? ? 基于上述情況,三維卷積最終的輸出為 ( a1 ? f + 1 ) × ( a2 ? f + 1 ) × ( a3 ? f + 1 ) × n 。該公式對于一維卷積、二維卷積仍然有效,只有去掉不相干的輸入數(shù)據(jù)維度就行。

?? ? 三維卷積常用于醫(yī)學(xué)領(lǐng)域(CT影響),視頻處理領(lǐng)域(檢測動作及人物行為)。

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4764.html

相關(guān)文章

  • 徒手實現(xiàn)CNN:綜述論文詳解卷積網(wǎng)絡(luò)的數(shù)學(xué)本質(zhì)

    摘要:本論文將嘗試概述卷積網(wǎng)絡(luò)的架構(gòu),并解釋包含激活函數(shù)損失函數(shù)前向傳播和反向傳播的數(shù)學(xué)推導(dǎo)。本文試圖只考慮帶有梯度下降優(yōu)化的典型卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的制定。 近日南洋理工大學(xué)研究者發(fā)布了一篇描述卷積網(wǎng)絡(luò)數(shù)學(xué)原理的論文,該論文從數(shù)學(xué)的角度闡述整個卷積網(wǎng)絡(luò)的運算與傳播過程。該論文對理解卷積網(wǎng)絡(luò)的數(shù)學(xué)本質(zhì)非常有幫助,有助于讀者「徒手」(不使用卷積API)實現(xiàn)卷積網(wǎng)絡(luò)。論文地址:https://arxiv....

    eternalshallow 評論0 收藏0
  • 全連接網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)逐步推導(dǎo)

    摘要:在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)在時間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)。這是為什么呢卷積神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的優(yōu)勢是什么呢卷積神經(jīng)網(wǎng)絡(luò)是如何從全連接網(wǎng)絡(luò)中派生出來的呢卷積神經(jīng)網(wǎng)絡(luò)這個術(shù)語又是從哪里而來這些問題在本文中一一為大家解答。 在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)在時間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)(Full Connected, FC)。這...

    zhunjiee 評論0 收藏0
  • 卷積自編碼

    摘要:卷積滿足交換操作,因此在一般的維空間輸入,自編碼可以被用來訓(xùn)練解碼編碼。事實上,解碼卷積的超參數(shù)是由編碼框架確定的由于卷積跨越每個特征圖,并且產(chǎn)生具有的維度,因此經(jīng)過濾波器之后產(chǎn)生相同的空間范圍。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/ec4... 這篇教程是翻譯Paolo Ga...

    shiyang6017 評論0 收藏0

發(fā)表評論

0條評論

renweihub

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<