摘要:一維卷積常用于序列模型,自然語言處理領(lǐng)域。三維卷積這里采用代數(shù)的方式對三維卷積進行介紹,具體思想與一維卷積二維卷積相同。
由于計算機視覺的大紅大紫,二維卷積的用處范圍最廣。因此本文首先介紹二維卷積,之后再介紹一維卷積與三維卷積的具體流程,并描述其各自的具體應(yīng)用。
1、二維卷積
?? ? 圖中的輸入的數(shù)據(jù)維度為 14 × 14 ,過濾器大小為 5 × 5,二者做卷積,輸出的數(shù)據(jù)維度為 10 × 10( 14 ? 5 + 1 = 10 )。
?? ? 上述內(nèi)容沒有引入channel的概念,也可以說channel的數(shù)量為1。如果將二維卷積中輸入的channel的數(shù)量變?yōu)?,即輸入的數(shù)據(jù)維度變?yōu)椋?4 × 14 × 3)。由于卷積操作中過濾器的 channel 數(shù)量必須與輸入數(shù)據(jù)的channel數(shù)量相同,過濾器大小也變?yōu)?5 × 5 × 3 。在卷積的過程中,過濾器與數(shù)據(jù)在 channel 方向分別卷積,之后將卷積后的數(shù)值相加,即執(zhí)行 10 × 10 次3個數(shù)值相加的操作,最終輸出的數(shù)據(jù)維度為 10 × 10 。
?? ? 以上都是在過濾器數(shù)量為1的情況下所進行的討論。如果將過濾器的數(shù)量增加至16,即16個大小為10 × 10 × 3 的過濾器,最終輸出的數(shù)據(jù)維度就變?yōu)?0 × 10 × 16 。可以理解為分別執(zhí)行每個過濾器的卷積操作,最后將每個卷積的輸出在第三個維度(channel 維度)上進行拼接。
?? ? 二維卷積常用于計算機視覺、圖像處理領(lǐng)域。
2、一維卷積
?? ? 圖中的輸入的數(shù)據(jù)維度為8,過濾器的維度為5。與二維卷積類似,卷積后輸出的數(shù)據(jù)維度為8?5+1=48?5+1=4。
?? ? 如果過濾器數(shù)量仍為1,輸入數(shù)據(jù)的channel數(shù)量變?yōu)?6,即輸入數(shù)據(jù)維度為 8 × 16 。這里channel的概念相當(dāng)于自然語言處理中的embedding,而該輸入數(shù)據(jù)代表8個單詞,其中每個單詞的詞向量維度大小為16。在這種情況下,過濾器的維度由5變?yōu)?5 × 16 ,最終輸出的數(shù)據(jù)維度仍為 4 。
?? ? 如果過濾器數(shù)量為 n,那么輸出的數(shù)據(jù)維度就變?yōu)?4 × n。
?? ? 一維卷積常用于序列模型,自然語言處理領(lǐng)域。
3、三維卷積
這里采用代數(shù)的方式對三維卷積進行介紹,具體思想與一維卷積、二維卷積相同。
?? ? 假設(shè)輸入數(shù)據(jù)的大小為 a1 × a2 × a3,channel數(shù)為 c,過濾器大小為
f,即過濾器維度為 f × f × f × c(一般不寫 channel 的維度),過濾器數(shù)量為 n。
?? ? 基于上述情況,三維卷積最終的輸出為 ( a1 ? f + 1 ) × ( a2 ? f + 1 ) × ( a3 ? f + 1 ) × n 。該公式對于一維卷積、二維卷積仍然有效,只有去掉不相干的輸入數(shù)據(jù)維度就行。
?? ? 三維卷積常用于醫(yī)學(xué)領(lǐng)域(CT影響),視頻處理領(lǐng)域(檢測動作及人物行為)。
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4764.html
摘要:本論文將嘗試概述卷積網(wǎng)絡(luò)的架構(gòu),并解釋包含激活函數(shù)損失函數(shù)前向傳播和反向傳播的數(shù)學(xué)推導(dǎo)。本文試圖只考慮帶有梯度下降優(yōu)化的典型卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的制定。 近日南洋理工大學(xué)研究者發(fā)布了一篇描述卷積網(wǎng)絡(luò)數(shù)學(xué)原理的論文,該論文從數(shù)學(xué)的角度闡述整個卷積網(wǎng)絡(luò)的運算與傳播過程。該論文對理解卷積網(wǎng)絡(luò)的數(shù)學(xué)本質(zhì)非常有幫助,有助于讀者「徒手」(不使用卷積API)實現(xiàn)卷積網(wǎng)絡(luò)。論文地址:https://arxiv....
摘要:在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)在時間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)。這是為什么呢卷積神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的優(yōu)勢是什么呢卷積神經(jīng)網(wǎng)絡(luò)是如何從全連接網(wǎng)絡(luò)中派生出來的呢卷積神經(jīng)網(wǎng)絡(luò)這個術(shù)語又是從哪里而來這些問題在本文中一一為大家解答。 在圖像分析中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)在時間和內(nèi)存方面優(yōu)于全連接網(wǎng)絡(luò)(Full Connected, FC)。這...
摘要:卷積滿足交換操作,因此在一般的維空間輸入,自編碼可以被用來訓(xùn)練解碼編碼。事實上,解碼卷積的超參數(shù)是由編碼框架確定的由于卷積跨越每個特征圖,并且產(chǎn)生具有的維度,因此經(jīng)過濾波器之后產(chǎn)生相同的空間范圍。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/ec4... 這篇教程是翻譯Paolo Ga...
閱讀 1033·2019-08-30 15:55
閱讀 3477·2019-08-30 13:10
閱讀 1299·2019-08-29 18:45
閱讀 2384·2019-08-29 16:25
閱讀 2145·2019-08-29 15:13
閱讀 2459·2019-08-29 11:29
閱讀 581·2019-08-26 17:34
閱讀 1523·2019-08-26 13:57