成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

基于卷積神經(jīng)網(wǎng)絡(luò)的奶牛個(gè)體身份識別

MyFaith / 2051人閱讀

摘要:將軀干圖像灰度化后經(jīng)插值運(yùn)算和歸一化變換為大小的矩陣,作為結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)的輸入進(jìn)行個(gè)體識別。卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建為減少數(shù)據(jù)量并保證輸入圖像的細(xì)節(jié)信息,將奶牛軀干圖像灰度化后通過插值計(jì)算變化為的圖像,并除以歸一化后作為輸入數(shù)據(jù)。

最近看了一個(gè)有趣的人工智能應(yīng)用,給大家分享一下~

這是一個(gè)人工智能與農(nóng)業(yè)的結(jié)合,在農(nóng)業(yè)中我們經(jīng)常需要給個(gè)體動物做標(biāo)記,目的是對奶牛做身份識別,然后可以對動物做養(yǎng)殖和繁殖的跟蹤,從而提供養(yǎng)殖管理的決策支持。我們比較熟悉的可能是人的人臉識別,于是,就有人想動物是否也可以做臉部識別來做身份識別呢?誠然,確實(shí)有研究在這么做,但是動物的臉部捕捉比人的臉部捕捉要難太多,特別是在戶外的情況下,于是,大家進(jìn)一步探討的就是,能否通過動物的軀干信息做身份識別呢?

本文就是通過奶牛的軀干信息做身份識別。

傳統(tǒng)方法

個(gè)體身份識別方法是自動分析奶牛行為的技術(shù)前提和應(yīng)用基礎(chǔ)。動物個(gè)體識別常采用無線射頻識別(RFID)技術(shù)。但RFID技術(shù)識別視頻視野中的奶牛個(gè)體時(shí)需要額外的設(shè)備與同步識別方法,增加了奶牛行為視頻分析系統(tǒng)的復(fù)雜度和成本。然而奶牛視頻中包含奶牛的個(gè)體信息,可直接對視頻進(jìn)行圖像處理實(shí)現(xiàn)奶牛個(gè)體識別。

識別方法介紹

該方法采集奶牛直線行走時(shí)的側(cè)視視頻,用幀間差值法計(jì)算奶牛粗略輪廓,并對其二值圖像進(jìn)行分段跨度分析,定位奶牛軀干區(qū)域,通過二值圖像比對跟蹤奶牛軀干目標(biāo),得到每幀圖像中奶牛軀干區(qū)域圖像。將軀干圖像灰度化后經(jīng)插值運(yùn)算和歸一化變換為48×48大小的矩陣,作為4c-2s-6c-2s-30o結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)的輸入進(jìn)行個(gè)體識別。對30頭奶牛共采集360段視頻,隨機(jī)選取訓(xùn)練數(shù)據(jù)60000幀和測試數(shù)據(jù)21730幀。結(jié)果表明,在訓(xùn)練次數(shù)為10次時(shí),代價(jià)函數(shù)收斂至0.0060,視頻段樣本的識別率為93.33%,單幀圖像樣本的識別率為90.55%。該方法可實(shí)現(xiàn)養(yǎng)殖場中奶牛個(gè)體無接觸較精確識別,具有適用性強(qiáng)、成本低的特點(diǎn)。

1. 軀干定位

幀間差值法對目標(biāo)的運(yùn)動邊緣具有優(yōu)良的檢測性能,對奶牛進(jìn)行幀間差值處理可得到奶牛的粗略輪廓,對得到的二值圖像進(jìn)行跨度分析,以剔除外部干擾,并分割出尾巴、頭和頸部,最終得到軀干區(qū)域。

如左圖所示,將得到的幀間差值圖像劃分成等間距的片段,分別計(jì)算每個(gè)片段內(nèi)二值圖像真值的上邊界和下邊界,并計(jì)算兩者的差值作為圖像跨度。

計(jì)算修剪后的二值圖像的外接矩形,其上半部分為軀干區(qū)域,下半部分為奶牛四肢。對于荷斯坦品種的奶牛,其軀干縱向高度與體高之比rb/t變化幅度較小。因此,本研究對30頭奶牛通過試驗(yàn)確定rb/t平均值為0.6。將定位的軀干區(qū)域以中心為基點(diǎn)縮小到80%,以去除邊界處的背景區(qū)塊。軀干定位結(jié)果如右圖所示。

2. 軀干跟蹤

考慮到奶牛行走過程中軀干無明顯的幾何變化,只產(chǎn)生平移運(yùn)動,故采用在后續(xù)幀中跟蹤軀干的策略,以提高軀干圖像提取精度。常用的跟蹤方法有粒子濾波跟蹤法和Meanshift算法,粒子濾波對大目標(biāo)跟蹤耗時(shí)長,不適于奶牛目標(biāo)的跟蹤;試驗(yàn)發(fā)現(xiàn),Meanshift算法不能準(zhǔn)確跟蹤行走中的奶牛目標(biāo)。主要原因是基于顏色直方圖的Meanshift算法對于顏色變化敏感,奶牛軀干主要由白色和黑色組成,而背景中包含了過多的顏色信息,導(dǎo)致Meanshift極易跟蹤到背景區(qū)域。因此,用模板比對法對奶牛軀干區(qū)域進(jìn)行跟蹤。其基本原理是以當(dāng)前幀軀干區(qū)域所在的位置為中心,在下一幀中尋找與軀干區(qū)域最接近的圖像。

3. 卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建

為減少數(shù)據(jù)量并保證輸入圖像的細(xì)節(jié)信息,將奶牛軀干圖像灰度化后通過插值計(jì)算變化為48×48的圖像,并除以255歸一化后作為輸入數(shù)據(jù)。

采用2組卷積和下采樣層,由于軀干圖像基本不存在扭轉(zhuǎn)、變形等影響,因此減少2個(gè)卷積層中特征圖的數(shù)量,以提高網(wǎng)絡(luò)對圖像宏觀信息的利用率。下采樣時(shí)對連接區(qū)域求均值得到輸出,不使用權(quán)重系數(shù)和閾值,省略函數(shù)轉(zhuǎn)換過程。

奶牛個(gè)體識別中的信息匹配可以通過單層感知器實(shí)現(xiàn),在第2次下采樣后直接與輸出層連接,以大幅度簡化網(wǎng)絡(luò)中的感知層。本研究牛群中共有30頭奶牛,故輸出層為30個(gè)感知器,與上一層全連接,輸出編碼采用one-of-c方式,即每種奶牛個(gè)體作為一個(gè)模式。

考慮到sigmoid函數(shù)有良好的非線性映射特性,故變換函數(shù)統(tǒng)一采用sigmoid函數(shù)。網(wǎng)絡(luò)訓(xùn)練中學(xué)習(xí)率取為1,訓(xùn)練批大小為50,訓(xùn)練終止條件為代價(jià)函數(shù)值小于0.01。由于變換函數(shù)為sigmoid函數(shù),故網(wǎng)絡(luò)輸出為一個(gè)長度為30的浮點(diǎn)型向量,將該向量中較大值置為1,其余元素置0作為網(wǎng)絡(luò)的輸出模式。若輸出模式與該輸入圖像的真實(shí)模式不匹配,則表明識別錯(cuò)誤。

為進(jìn)一步確定卷積層特征圖較佳個(gè)數(shù),對不同結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行識別準(zhǔn)確率及平均耗時(shí)試驗(yàn),結(jié)果表明,當(dāng)兩個(gè)卷積層中特征圖個(gè)數(shù)分別為4和6時(shí),網(wǎng)絡(luò)識別率和效率較高。

4. 實(shí)驗(yàn)結(jié)果

卷積神經(jīng)網(wǎng)絡(luò)的識別準(zhǔn)確率及效率:

圖像檢索法與卷積神經(jīng)網(wǎng)絡(luò)奶牛個(gè)體識別結(jié)果比較:

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4491.html

相關(guān)文章

  • 深度學(xué)習(xí)助力實(shí)現(xiàn)智能行為分析和事件識別

    摘要:行為識別包含兩個(gè)研究方向個(gè)體行為識別與群體行為事件識別。同時(shí),隨著行人智能分析與群體事件感知的需求與日俱增,一系列行為分析與事件識別算法在深度學(xué)習(xí)技術(shù)的推動下應(yīng)運(yùn)而生。 行為識別是指通過分析視頻、深度傳感器等數(shù)據(jù),利用特定的算法,對行人的行為進(jìn)行識別、分析的技術(shù)。這項(xiàng)技術(shù)被廣泛應(yīng)用在視頻分類、人機(jī)交互、安防監(jiān)控等領(lǐng)域。行為識別包含兩個(gè)研究方向:個(gè)體行為識別與群體行為(事件)識別。近年來,深度...

    未東興 評論0 收藏0
  • 將CNN與RNN組合使用

    摘要:但是,有一些研究人員在同一個(gè)深度神經(jīng)網(wǎng)絡(luò)中巧妙地實(shí)現(xiàn)了二者能力的結(jié)合。一次讀取并解釋輸入文本中的一個(gè)字或字符圖像,因此深度神經(jīng)網(wǎng)絡(luò)必須等待直到當(dāng)前字的處理完成,才能去處理下一個(gè)字。 從有一些有趣的用例看,我們似乎完全可以將 CNN 和 RNN/LSTM 結(jié)合使用。許多研究者目前正致力于此項(xiàng)研究。但是,CNN 的研究進(jìn)展趨勢可能會令這一想法不合時(shí)宜。一些事情正如水與油一樣,看上去無法結(jié)合在一起...

    FuisonDesign 評論0 收藏0
  • 基于 Deep Learning 視頻識別方法概覽

    摘要:圖基于的識別方法它的基本思想是用對幀的最后一層的激活在時(shí)間軸上進(jìn)行整合。這個(gè)是學(xué)習(xí)長度為幀采樣后視頻片段的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)。 深度學(xué)習(xí)在最近十來年特別火,幾乎是帶動AI浪潮的最大貢獻(xiàn)者?;ヂ?lián)網(wǎng)視頻在最近幾年也特別火,短視頻、視頻直播等各種新型UGC模式牢牢抓住了用戶的消費(fèi)心里,成為互聯(lián)網(wǎng)吸金的又一利器。當(dāng)這兩個(gè)火碰在一起,會產(chǎn)生什么樣的化學(xué)反應(yīng)呢? 不說具體的技術(shù),先上一張福利圖,該圖展示...

    Arno 評論0 收藏0

發(fā)表評論

0條評論

MyFaith

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<