摘要:前言本文將介紹一種在線網(wǎng)絡(luò)工具,可用于可視化各種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。其實(shí)本文要介紹的工具就是基于開(kāi)發(fā)的,但更像是一個(gè)工具包一樣,可以方便找到各種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)的。
前言
本文將介紹一種在線網(wǎng)絡(luò)工具,可用于可視化各種經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。學(xué)習(xí)Caffe的同學(xué),一定很熟悉Netscope。它就是用來(lái)可視化Caffe的prototxt文件,那么prototxt文件又是啥呢?
簡(jiǎn)而言之,prototxt就是定義卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的文件,有點(diǎn)類(lèi)似于YOLO的cfg文件。有"固定關(guān)鍵詞",你可以自己定義不同的卷積網(wǎng)絡(luò)和激活函數(shù)等功能。
其實(shí)本文要介紹的工具就是基于Netscope開(kāi)發(fā)的,但更像是一個(gè)工具包一樣,可以方便找到各種經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)的prototxt。
Netscope CNN Analyzer
該在線網(wǎng)絡(luò)工具提供10多種經(jīng)典網(wǎng)絡(luò)的可視化文件,如AlexNet、GoogLeNet、YOLO、ResNet系列和Inception系列等。具體如下圖所示:
本文是為了安利這個(gè)網(wǎng)站,所以就不對(duì)卷積神經(jīng)網(wǎng)絡(luò)框架本身來(lái)詳細(xì)介紹了,后面會(huì)陸續(xù)推出論文詳解,敬請(qǐng)期待。為了精簡(jiǎn),這里簡(jiǎn)單以AlexNet和Inception網(wǎng)絡(luò)為例來(lái)介紹。
AlexNet
這里簡(jiǎn)單列出conv1、norm1、pool1的對(duì)應(yīng)"代碼"
?1layer {
?2 ?name: "conv1"
?3 ?type: "Convolution"
?4 ?bottom: "data"
?5 ?top: "conv1"
?6 ?param {
?7 ? ?lr_mult: 1
?8 ? ?decay_mult: 1
?9 ?}
10 ?param {
11 ? ?lr_mult: 2
12 ? ?decay_mult: 0
13 ?}
14 ?convolution_param {
15 ? ?num_output: 96
16 ? ?kernel_size: 11
17 ? ?stride: 4
18 ? ?weight_filler {
19 ? ? ?type: "gaussian"
20 ? ? ?std: 0.01
21 ? ?}
22 ? ?bias_filler {
23 ? ? ?type: "constant"
24 ? ? ?value: 0
25 ? ?}
26 ?}
27}
28layer {
29 ?name: "relu1"
30 ?type: "ReLU"
31 ?bottom: "conv1"
32 ?top: "conv1"
33}
34layer {
35 ?name: "norm1"
36 ?type: "LRN"
37 ?bottom: "conv1"
38 ?top: "norm1"
39 ?lrn_param {
40 ? ?local_size: 5
41 ? ?alpha: 0.0001
42 ? ?beta: 0.75
43 ?}
44}
45layer {
46 ?name: "pool1"
47 ?type: "Pooling"
48 ?bottom: "norm1"
49 ?top: "pool1"
50 ?pooling_param {
51 ? ?pool: MAX
52 ? ?kernel_size: 3
53 ? ?stride: 2
54 ?}
55}
Inception v4
下面就是Inception v4的經(jīng)典的Inception-A部分,可視化的效果相當(dāng)好,很容易理解各個(gè)隱藏層之間的輸入輸出及網(wǎng)絡(luò)的結(jié)構(gòu)。
資源鏈接:
https://dgschwend.github.io/netscope/quickstart.html
聲明:文章收集于網(wǎng)絡(luò),如有侵權(quán),請(qǐng)聯(lián)系小編及時(shí)處理,謝謝!
歡迎加入本站公開(kāi)興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4807.html
摘要:在計(jì)算機(jī)視覺(jué)領(lǐng)域,對(duì)卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱(chēng)為的研究和應(yīng)用都取得了顯著的成果。文章討論了在卷積神經(jīng)網(wǎng)絡(luò)中,該如何調(diào)整超參數(shù)以及可視化卷積層。卷積神經(jīng)網(wǎng)絡(luò)可以完成這項(xiàng)任務(wù)。 在深度學(xué)習(xí)中,有許多不同的深度網(wǎng)絡(luò)結(jié)構(gòu),包括卷積神經(jīng)網(wǎng)絡(luò)(CNN或convnet)、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)和生成對(duì)抗網(wǎng)絡(luò)(GAN)等。在計(jì)算機(jī)視覺(jué)領(lǐng)域,對(duì)卷積神經(jīng)網(wǎng)絡(luò)(簡(jiǎn)稱(chēng)為CNN)的研究和應(yīng)用都取得了顯著的成果。CNN網(wǎng)絡(luò)最...
摘要:卷積神經(jīng)網(wǎng)絡(luò)原理淺析卷積神經(jīng)網(wǎng)絡(luò),最初是為解決圖像識(shí)別等問(wèn)題設(shè)計(jì)的,當(dāng)然其現(xiàn)在的應(yīng)用不僅限于圖像和視頻,也可用于時(shí)間序列信號(hào),比如音頻信號(hào)文本數(shù)據(jù)等。卷積神經(jīng)網(wǎng)絡(luò)的概念最早出自世紀(jì)年代科學(xué)家提出的感受野。 卷積神經(jīng)網(wǎng)絡(luò)原理淺析 ?卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Network,CNN)最初是為解決圖像識(shí)別等問(wèn)題設(shè)計(jì)的,當(dāng)然其現(xiàn)在的應(yīng)用不僅限于圖像和視頻,也可用于時(shí)間序...
摘要:本文將分享一些自己關(guān)于深度學(xué)習(xí)模型調(diào)試技巧的總結(jié)思考以為主。不過(guò)以卷積神經(jīng)網(wǎng)絡(luò)為代表的深層神經(jīng)網(wǎng)絡(luò)一直被詬病,這對(duì)于模型在工業(yè)界的應(yīng)用推廣還是帶來(lái)了一定的阻礙。 作者楊軍,從事大規(guī)模機(jī)器學(xué)習(xí)系統(tǒng)研發(fā)及應(yīng)用相關(guān)工作。本文將分享一些自己關(guān)于深度學(xué)習(xí)模型調(diào)試技巧的總結(jié)思考(以CNN為主)。最近因?yàn)橐恍┬枰?,參與了一些CNN建模調(diào)參的工作,出于個(gè)人習(xí)性,我并不習(xí)慣于通過(guò)單純的trial-and-er...
摘要:近日,加州大學(xué)洛杉磯分校的朱松純教授等人發(fā)布了一篇使用決策樹(shù)對(duì)的表征和預(yù)測(cè)進(jìn)行解釋的論文。在此論文中,朱松純等研究者提出了一種新任務(wù),也就是使用決策樹(shù)在語(yǔ)義層次上來(lái)量化解釋預(yù)測(cè)的邏輯。 近日,加州大學(xué)洛杉磯分校的朱松純教授等人發(fā)布了一篇使用決策樹(shù)對(duì) CNN 的表征和預(yù)測(cè)進(jìn)行解釋的論文。該論文借助決策樹(shù)在語(yǔ)義層面上解釋 CNN 做出的每一個(gè)特定預(yù)測(cè),即哪個(gè)卷積核(或物體部位)被用于預(yù)測(cè)最終的類(lèi)...
閱讀 1323·2021-09-22 15:00
閱讀 3315·2019-08-30 14:00
閱讀 1232·2019-08-29 17:27
閱讀 1228·2019-08-29 16:35
閱讀 702·2019-08-29 16:14
閱讀 2048·2019-08-26 13:43
閱讀 2129·2019-08-26 11:35
閱讀 2314·2019-08-23 15:34