此篇文章主要是詳細(xì)介紹了caffe的python接口caffemodel指標(biāo)及特征抽取實(shí)例詳細(xì)說明,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡早漲薪
文章正文
如果使用公式計(jì)算y=f(wx+b)
來描述全部計(jì)算全過程得話,那樣w和b是我們必須鍛煉的物品,w稱之為權(quán)重值,在cnn之中能夠稱為池化層(filter),b是偏置項(xiàng)。f是激活函數(shù),有sigmoid、relu等。x便是鍵入數(shù)據(jù)信息。
算法訓(xùn)練結(jié)束后,儲(chǔ)存的saffemodel里邊,實(shí)際上是每層的w和b值。
大家運(yùn)行代碼:
deploy=root+'mnist/deploy.prototxt'#deploy文件 caffe_model=root+'mnist/lenet_iter_9380.caffemodel'#訓(xùn)練好的caffemodel net=caffe.Net(net_file,caffe_model,caffe.TEST)#加載model和network
就把自己的指標(biāo)和數(shù)據(jù)載入到一個(gè)net自變量里了,但是net是個(gè)很繁雜的object,想要顯現(xiàn)出來看肯定是不行的。在其中:
net.params:儲(chǔ)存每層的變量值(w和b)
net.blobs:儲(chǔ)存每層的數(shù)據(jù)值
可以用指令:
[(k,v[0].data)for k,v in net.params.items()]
檢查每層的變量值,其中k會(huì)話層名稱,v[0].data便是每層的W值,而v[1].data是每層的b值。留意:并非所有的層都是有指標(biāo),唯有卷積層和池化層才會(huì)。
w1=net.params['Convolution1'][0].data b1=net.params['Convolution1'][1].data
也可以不用檢查具體值,只想看一下shape,可以用指令
net.forward()
假定我們都知道在其中第一位卷積層名字叫'Convolution1',則我們能獲取這一層指標(biāo):
[(k,v.data.shape)for k,v in net.blobs.items()]
鍵入這種編碼,具體查詢一下,對(duì)自己的了解network有很大的幫助。
[(k,v.data)for k,v in net.blobs.items()]
同樣,除開檢查指標(biāo),我們也可以查詢數(shù)據(jù),可是需要注意的是,net里邊一開始是無數(shù)據(jù)的,必須運(yùn)作:
來查看各層的數(shù)據(jù)。注意和上面查看參數(shù)的區(qū)別,一個(gè)是net.params,一個(gè)是net.blobs.
實(shí)際上數(shù)據(jù)剛輸入的時(shí)候,我們叫圖片數(shù)據(jù),卷積之后我們就叫特征了。
如果要抽取第一個(gè)全連接層的特征,則可用命令:
fea=net.blobs['InnerProduct1'].data
只要知道某個(gè)層的名稱,就可以抽取這個(gè)層的特征。
推薦大家在spyder中,運(yùn)行一下上面的所有代碼,深入理解模型各層。
最后,總結(jié)一個(gè)代碼:
import caffe import numpy as np root='/home/xxx/'#根目錄 deploy=root+'mnist/deploy.prototxt'#deploy文件 caffe_model=root+'mnist/lenet_iter_9380.caffemodel'#訓(xùn)練好的caffemodel net=caffe.Net(deploy,caffe_model,caffe.TEST)#加載model和network [(k,v[0].data.shape)for k,v in net.params.items()]#查看各層參數(shù)規(guī)模 w1=net.params['Convolution1'][0].data#提取參數(shù)w b1=net.params['Convolution1'][1].data#提取參數(shù)b net.forward()#運(yùn)行測試 [(k,v.data.shape)for k,v in net.blobs.items()]#查看各層數(shù)據(jù)規(guī)模 fea=net.blobs['InnerProduct1'].data#提取某層數(shù)據(jù)(特征)
綜上所述,代碼就為大家介紹到這里了,希望可以為各位讀者帶來幫助。
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/128754.html
本文主要是給大家介紹了caffe的python插口生成deploy文件學(xué)習(xí)培訓(xùn)及其用練習(xí)好一點(diǎn)的實(shí)體模型(caffemodel)來歸類新的圖片實(shí)例詳細(xì)說明,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡早漲薪 caffe的python插口生成deploy文件 假如要將練習(xí)好一點(diǎn)的實(shí)體模型用于檢測新的圖片,那必然必須得一個(gè)deploy.prototxt文件,這一...
文中主要是給大家介紹了caffe的python插口之手寫數(shù)字識(shí)別mnist案例詳細(xì)說明,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡早漲薪 論文引言 機(jī)器學(xué)習(xí)第一個(gè)案例一般都是是mnist,只需這個(gè)案例徹底搞懂了,其他的便是觸類旁通的事了。因?yàn)樽謹(jǐn)?shù)緣故,文中不簡單介紹環(huán)境變量里邊每一個(gè)指標(biāo)的具體函義,如果要搞明白的,請(qǐng)參考我之前的微博文章: 數(shù)據(jù)訪問層及主...
摘要:本文來自搜狗資深研究員舒鵬在攜程技術(shù)中心主辦的深度學(xué)習(xí)中的主題演講,介紹了深度學(xué)習(xí)在搜狗無線搜索廣告中的應(yīng)用及成果。近年來,深度學(xué)習(xí)在很多領(lǐng)域得到廣泛應(yīng)用并已取得較好的成果,本次演講就是分享深度學(xué)習(xí)如何有效的運(yùn)用在搜狗無線搜索廣告中。 本文來自搜狗資深研究員舒鵬在攜程技術(shù)中心主辦的深度學(xué)習(xí)Meetup中的主題演講,介紹了深度學(xué)習(xí)在搜狗無線搜索廣告中的應(yīng)用及成果。重點(diǎn)講解了如何實(shí)現(xiàn)基于多模型融...
閱讀 928·2023-01-14 11:38
閱讀 902·2023-01-14 11:04
閱讀 759·2023-01-14 10:48
閱讀 2065·2023-01-14 10:34
閱讀 968·2023-01-14 10:24
閱讀 844·2023-01-14 10:18
閱讀 512·2023-01-14 10:09
閱讀 591·2023-01-14 10:02