摘要:現(xiàn)在,官方版開源代碼終于來了。同時(shí)發(fā)布的,是這項(xiàng)研究背后的一個(gè)基礎(chǔ)平臺(tái)。是的物體檢測(cè)平臺(tái),今天宣布開源,它基于,用寫成,這次開放的代碼中就包含了的實(shí)現(xiàn)。說,將平臺(tái)開源出來,是想要加速世界各地實(shí)驗(yàn)室的研究,推動(dòng)物體檢測(cè)的進(jìn)展。
“等代碼吧?!?/p>
從Mask R-CNN論文亮相至今的10個(gè)月里,關(guān)于它的討論幾乎都會(huì)以這句話收尾。
現(xiàn)在,官方版開源代碼終于來了。同時(shí)發(fā)布的,是這項(xiàng)研究背后的一個(gè)基礎(chǔ)平臺(tái):Detectron。
Detectron是Facebook的物體檢測(cè)平臺(tái),今天宣布開源,它基于Caffe2,用Python寫成,這次開放的代碼中就包含了Mask R-CNN的實(shí)現(xiàn)。
除此之外,Detectron還包含了ICCV 2017較佳學(xué)生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實(shí)現(xiàn)。
Detectron的基干(backbone)網(wǎng)絡(luò)架構(gòu)包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。
同時(shí),F(xiàn)acebook還發(fā)布了70多種ImageNet-1k預(yù)訓(xùn)練模型的性能基準(zhǔn),包括用用1、2塊GPU時(shí),上述各種基干架構(gòu)和檢測(cè)算法相結(jié)合做區(qū)域建議、遮罩檢測(cè)以及人體關(guān)鍵點(diǎn)檢測(cè)的訓(xùn)練時(shí)間、推理時(shí)間等。
要使用Detectron,你需要先配置英偉達(dá)GPU(是的,它還不支持CPU)、Linux系統(tǒng)和Python2,還要安裝Caffe2和COCO API。然后,三步裝上Detectron:
Clone Detectron:
# DETECTRON=/path/to/clone/detectron
git clone https://github.com/facebookresearch/detectron $DETECTRON
設(shè)置Python模塊:
cd $DETECTRON/lib && make
檢查Detectron的測(cè)試通過:
python2 $DETECTRON/tests/test_spatial_narrow_as_op.py
這樣,就足夠用預(yù)訓(xùn)練模型做推理了。
如果要用Detectron來訓(xùn)練自己的檢測(cè)模型,就需要先確保能通過符號(hào)鏈接lib/datasets/data找到數(shù)據(jù)集,然后用CMake創(chuàng)建定制的運(yùn)算符庫:
cd $DETECTRON/lib && make ops
并檢查這些運(yùn)算符的測(cè)試通過:
python2 $DETECTRON/tests/test_zero_even_op.py
Facebook還貼心地寫了份上手教程,教你用預(yù)訓(xùn)練的Mask R-CNN來做物體檢測(cè)。
如果要在本地圖像上運(yùn)行,只需要使用infer_simple.py工具,運(yùn)行:
python2 tools/infer_simple.py
? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml
? ? --output-dir /tmp/detectron-visualizations
? ? --image-ext jpg
? ? --wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl
? ? demo
就能得到如下圖所示的輸出。
如果要在COCO數(shù)據(jù)集上做推理,需要運(yùn)行:
python2 tools/test_net.py
? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml
? ? TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl
? ? NUM_GPUS 1
上面這個(gè)例子,用了端到端預(yù)訓(xùn)練的Mask R-CNN,在一塊GPU上運(yùn)行。如果要使用多個(gè)GPU,需要在第二行之后添加 —multi-gpu-testing 并更改最后的NUM_GPUS數(shù)量。
截至量子位發(fā)稿,Detectron在GitHub上放出7小時(shí),已經(jīng)收獲738顆星標(biāo)、101次Fork。
RBG在Facebook上發(fā)帖介紹說,這個(gè)項(xiàng)目2016年7月啟動(dòng),想要基于Caffe 2構(gòu)建一個(gè)快速、靈活的物體檢測(cè)系統(tǒng),至今已經(jīng)一年半的時(shí)間。Detectron系統(tǒng)本來是Facebook內(nèi)部使用的,我們前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。
除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何愷明也參與了Detectron項(xiàng)目。
在Facebook內(nèi)部,Detectron不僅用于研究,還用來為增強(qiáng)現(xiàn)實(shí)、商業(yè)誠(chéng)信等方面的應(yīng)用訓(xùn)練定制化的模型。這些模型訓(xùn)練完成后可以部署在云端或者移動(dòng)設(shè)備上,由Caffe2運(yùn)行時(shí)提供支持。
RBG說,F(xiàn)acebook將Detectron平臺(tái)開源出來,是想要加速世界各地實(shí)驗(yàn)室的研究,推動(dòng)物體檢測(cè)的進(jìn)展。
Now go forth and create algorithms to detect all of the things!
想用Detectron搞物體檢測(cè)算法,你可能要用到下面這些鏈接:
Detectron開源代碼:
https://github.com/facebookresearch/Detectron
相關(guān)物體檢測(cè)論文:
Mask R-CNN
https://arxiv.org/abs/1703.06870
RetinaNet
https://arxiv.org/abs/1708.02002
Faster R-CNN和RPN
https://arxiv.org/abs/1506.01497
Fast R-CNN
https://arxiv.org/abs/1504.08083
R-FCN
https://arxiv.org/abs/1605.06409
性能基準(zhǔn)和Model ZOO:
https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md
另外,你們可能還想去RBG大神的FB帖子底下表達(dá)一波感謝(以及質(zhì)問開源代碼為何拖了這么久):
https://www.facebook.com/ross.girshick/posts/10159910213745261
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4710.html
摘要:從標(biāo)題上可以看出,這是一篇在實(shí)例分割問題中研究擴(kuò)展分割物體類別數(shù)量的論文。試驗(yàn)結(jié)果表明,這個(gè)擴(kuò)展可以改進(jìn)基準(zhǔn)和權(quán)重傳遞方法。 今年10月,何愷明的論文Mask R-CNN摘下ICCV 2017的較佳論文獎(jiǎng)(Best Paper Award),如今,何愷明團(tuán)隊(duì)在Mask R-CNN的基礎(chǔ)上更近一步,推出了(以下稱Mask^X R-CNN)。這篇論文的第一作者是伯克利大學(xué)的在讀博士生胡戎航(清華...
摘要:這個(gè)像素級(jí)別的圖像分割問題被等科學(xué)家解決,這個(gè)框架被稱為。由于圖像分割需要做到像素級(jí),這與邊框分割不同,所以必然導(dǎo)致不準(zhǔn)確。 作者:chen_h微信號(hào) & QQ:862251340微信公眾號(hào):coderpai簡(jiǎn)書地址:https://www.jianshu.com/p/867... 自從?Alex Krizhevsky, Geoff Hinton, and Ilya Sutskeve...
摘要:自從和在年贏得了的冠軍,卷積神經(jīng)網(wǎng)絡(luò)就成為了分割圖像的黃金準(zhǔn)則。事實(shí)上,從那時(shí)起,卷積神經(jīng)網(wǎng)絡(luò)不斷獲得完善,并已在挑戰(zhàn)上超越人類。現(xiàn)在,卷積神經(jīng)網(wǎng)絡(luò)在的表現(xiàn)已超越人類。 卷積神經(jīng)網(wǎng)絡(luò)(CNN)的作用遠(yuǎn)不止分類那么簡(jiǎn)單!在本文中,我們將看到卷積神經(jīng)網(wǎng)絡(luò)(CNN)如何在圖像實(shí)例分割任務(wù)中提升其結(jié)果。自從 Alex Krizhevsky、Geoff Hinton 和 Ilya Sutskever ...
摘要:目前目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類的目標(biāo)檢測(cè)算法的目標(biāo)檢測(cè)算法。原來多數(shù)的目標(biāo)檢測(cè)算法都是只采用深層特征做預(yù)測(cè),低層的特征語義信息比較少,但是目標(biāo)位置準(zhǔn)確高層的特征語義信息比較豐富,但是目標(biāo)位置比較粗略。 目前目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:two stage的目標(biāo)檢測(cè)算法;one stage的目標(biāo)檢測(cè)算法。前者是先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本...
摘要:表示類別為,坐標(biāo)是的預(yù)測(cè)熱點(diǎn)圖,表示相應(yīng)位置的,論文提出變體表示檢測(cè)目標(biāo)的損失函數(shù)由于下采樣,模型生成的熱點(diǎn)圖相比輸入圖像分辨率低。模型訓(xùn)練損失函數(shù)使同一目標(biāo)的頂點(diǎn)進(jìn)行分組,損失函數(shù)用于分離不同目標(biāo)的頂點(diǎn)。 本文由極市博客原創(chuàng),作者陳泰紅。 1.目標(biāo)檢測(cè)算法概述 CornerNet(https://arxiv.org/abs/1808.01244)是密歇根大學(xué)Hei Law等人在發(fā)表E...
閱讀 2522·2021-09-22 15:15
閱讀 677·2021-09-02 15:11
閱讀 1817·2021-08-30 09:48
閱讀 1923·2019-08-30 15:56
閱讀 1543·2019-08-30 15:52
閱讀 2080·2019-08-30 15:44
閱讀 465·2019-08-29 16:29
閱讀 1568·2019-08-29 11:06