成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

Mask R-CNN源代碼終于來了,還有它背后的物體檢測(cè)平臺(tái)

robin / 2614人閱讀

摘要:現(xiàn)在,官方版開源代碼終于來了。同時(shí)發(fā)布的,是這項(xiàng)研究背后的一個(gè)基礎(chǔ)平臺(tái)。是的物體檢測(cè)平臺(tái),今天宣布開源,它基于,用寫成,這次開放的代碼中就包含了的實(shí)現(xiàn)。說,將平臺(tái)開源出來,是想要加速世界各地實(shí)驗(yàn)室的研究,推動(dòng)物體檢測(cè)的進(jìn)展。

“等代碼吧?!?/p>

從Mask R-CNN論文亮相至今的10個(gè)月里,關(guān)于它的討論幾乎都會(huì)以這句話收尾。

現(xiàn)在,官方版開源代碼終于來了。同時(shí)發(fā)布的,是這項(xiàng)研究背后的一個(gè)基礎(chǔ)平臺(tái):Detectron。

Detectron是Facebook的物體檢測(cè)平臺(tái),今天宣布開源,它基于Caffe2,用Python寫成,這次開放的代碼中就包含了Mask R-CNN的實(shí)現(xiàn)。

除此之外,Detectron還包含了ICCV 2017較佳學(xué)生論文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的實(shí)現(xiàn)。

Detectron的基干(backbone)網(wǎng)絡(luò)架構(gòu)包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。

同時(shí),F(xiàn)acebook還發(fā)布了70多種ImageNet-1k預(yù)訓(xùn)練模型的性能基準(zhǔn),包括用用1、2塊GPU時(shí),上述各種基干架構(gòu)和檢測(cè)算法相結(jié)合做區(qū)域建議、遮罩檢測(cè)以及人體關(guān)鍵點(diǎn)檢測(cè)的訓(xùn)練時(shí)間、推理時(shí)間等。

要使用Detectron,你需要先配置英偉達(dá)GPU(是的,它還不支持CPU)、Linux系統(tǒng)和Python2,還要安裝Caffe2和COCO API。然后,三步裝上Detectron:

Clone Detectron:

# DETECTRON=/path/to/clone/detectron

git clone https://github.com/facebookresearch/detectron $DETECTRON

設(shè)置Python模塊:

cd $DETECTRON/lib && make

檢查Detectron的測(cè)試通過:

python2 $DETECTRON/tests/test_spatial_narrow_as_op.py

這樣,就足夠用預(yù)訓(xùn)練模型做推理了。

如果要用Detectron來訓(xùn)練自己的檢測(cè)模型,就需要先確保能通過符號(hào)鏈接lib/datasets/data找到數(shù)據(jù)集,然后用CMake創(chuàng)建定制的運(yùn)算符庫:

cd $DETECTRON/lib && make ops

并檢查這些運(yùn)算符的測(cè)試通過:

python2 $DETECTRON/tests/test_zero_even_op.py

Facebook還貼心地寫了份上手教程,教你用預(yù)訓(xùn)練的Mask R-CNN來做物體檢測(cè)。

如果要在本地圖像上運(yùn)行,只需要使用infer_simple.py工具,運(yùn)行:

python2 tools/infer_simple.py

? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml

? ? --output-dir /tmp/detectron-visualizations

? ? --image-ext jpg

? ? --wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl

? ? demo

就能得到如下圖所示的輸出。

如果要在COCO數(shù)據(jù)集上做推理,需要運(yùn)行:

python2 tools/test_net.py

? ? --cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml

? ? TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl

? ? NUM_GPUS 1

上面這個(gè)例子,用了端到端預(yù)訓(xùn)練的Mask R-CNN,在一塊GPU上運(yùn)行。如果要使用多個(gè)GPU,需要在第二行之后添加 —multi-gpu-testing 并更改最后的NUM_GPUS數(shù)量。

截至量子位發(fā)稿,Detectron在GitHub上放出7小時(shí),已經(jīng)收獲738顆星標(biāo)、101次Fork。

RBG在Facebook上發(fā)帖介紹說,這個(gè)項(xiàng)目2016年7月啟動(dòng),想要基于Caffe 2構(gòu)建一個(gè)快速、靈活的物體檢測(cè)系統(tǒng),至今已經(jīng)一年半的時(shí)間。Detectron系統(tǒng)本來是Facebook內(nèi)部使用的,我們前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。

除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何愷明也參與了Detectron項(xiàng)目。

在Facebook內(nèi)部,Detectron不僅用于研究,還用來為增強(qiáng)現(xiàn)實(shí)、商業(yè)誠(chéng)信等方面的應(yīng)用訓(xùn)練定制化的模型。這些模型訓(xùn)練完成后可以部署在云端或者移動(dòng)設(shè)備上,由Caffe2運(yùn)行時(shí)提供支持。

RBG說,F(xiàn)acebook將Detectron平臺(tái)開源出來,是想要加速世界各地實(shí)驗(yàn)室的研究,推動(dòng)物體檢測(cè)的進(jìn)展。

Now go forth and create algorithms to detect all of the things!

想用Detectron搞物體檢測(cè)算法,你可能要用到下面這些鏈接:

Detectron開源代碼:

https://github.com/facebookresearch/Detectron

相關(guān)物體檢測(cè)論文:

Mask R-CNN

https://arxiv.org/abs/1703.06870

RetinaNet

https://arxiv.org/abs/1708.02002

Faster R-CNN和RPN

https://arxiv.org/abs/1506.01497

Fast R-CNN

https://arxiv.org/abs/1504.08083

R-FCN

https://arxiv.org/abs/1605.06409

性能基準(zhǔn)和Model ZOO:

https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md

另外,你們可能還想去RBG大神的FB帖子底下表達(dá)一波感謝(以及質(zhì)問開源代碼為何拖了這么久):

https://www.facebook.com/ross.girshick/posts/10159910213745261

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4710.html

相關(guān)文章

  • 何愷明團(tuán)隊(duì)推出Mask^X R-CNN,將實(shí)例分割擴(kuò)展到3000類

    摘要:從標(biāo)題上可以看出,這是一篇在實(shí)例分割問題中研究擴(kuò)展分割物體類別數(shù)量的論文。試驗(yàn)結(jié)果表明,這個(gè)擴(kuò)展可以改進(jìn)基準(zhǔn)和權(quán)重傳遞方法。 今年10月,何愷明的論文Mask R-CNN摘下ICCV 2017的較佳論文獎(jiǎng)(Best Paper Award),如今,何愷明團(tuán)隊(duì)在Mask R-CNN的基礎(chǔ)上更近一步,推出了(以下稱Mask^X R-CNN)。這篇論文的第一作者是伯克利大學(xué)的在讀博士生胡戎航(清華...

    MockingBird 評(píng)論0 收藏0
  • CNN 在圖像分割中簡(jiǎn)史:從 R-CNNMask R-CNN

    摘要:這個(gè)像素級(jí)別的圖像分割問題被等科學(xué)家解決,這個(gè)框架被稱為。由于圖像分割需要做到像素級(jí),這與邊框分割不同,所以必然導(dǎo)致不準(zhǔn)確。 作者:chen_h微信號(hào) & QQ:862251340微信公眾號(hào):coderpai簡(jiǎn)書地址:https://www.jianshu.com/p/867... 自從?Alex Krizhevsky, Geoff Hinton, and Ilya Sutskeve...

    AJie 評(píng)論0 收藏0
  • 用于圖像分割卷積神經(jīng)網(wǎng)絡(luò):從R-CNN到Mark R-CNN

    摘要:自從和在年贏得了的冠軍,卷積神經(jīng)網(wǎng)絡(luò)就成為了分割圖像的黃金準(zhǔn)則。事實(shí)上,從那時(shí)起,卷積神經(jīng)網(wǎng)絡(luò)不斷獲得完善,并已在挑戰(zhàn)上超越人類。現(xiàn)在,卷積神經(jīng)網(wǎng)絡(luò)在的表現(xiàn)已超越人類。 卷積神經(jīng)網(wǎng)絡(luò)(CNN)的作用遠(yuǎn)不止分類那么簡(jiǎn)單!在本文中,我們將看到卷積神經(jīng)網(wǎng)絡(luò)(CNN)如何在圖像實(shí)例分割任務(wù)中提升其結(jié)果。自從 Alex Krizhevsky、Geoff Hinton 和 Ilya Sutskever ...

    daydream 評(píng)論0 收藏0
  • 深度學(xué)習(xí)時(shí)代目標(biāo)檢測(cè)算法

    摘要:目前目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類的目標(biāo)檢測(cè)算法的目標(biāo)檢測(cè)算法。原來多數(shù)的目標(biāo)檢測(cè)算法都是只采用深層特征做預(yù)測(cè),低層的特征語義信息比較少,但是目標(biāo)位置準(zhǔn)確高層的特征語義信息比較豐富,但是目標(biāo)位置比較粗略。 目前目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩類:two stage的目標(biāo)檢測(cè)算法;one stage的目標(biāo)檢測(cè)算法。前者是先由算法生成一系列作為樣本的候選框,再通過卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行樣本...

    wfc_666 評(píng)論0 收藏0
  • ECCV 2018 | CornerNet:目標(biāo)檢測(cè)算法新思路

    摘要:表示類別為,坐標(biāo)是的預(yù)測(cè)熱點(diǎn)圖,表示相應(yīng)位置的,論文提出變體表示檢測(cè)目標(biāo)的損失函數(shù)由于下采樣,模型生成的熱點(diǎn)圖相比輸入圖像分辨率低。模型訓(xùn)練損失函數(shù)使同一目標(biāo)的頂點(diǎn)進(jìn)行分組,損失函數(shù)用于分離不同目標(biāo)的頂點(diǎn)。 本文由極市博客原創(chuàng),作者陳泰紅。 1.目標(biāo)檢測(cè)算法概述 CornerNet(https://arxiv.org/abs/1808.01244)是密歇根大學(xué)Hei Law等人在發(fā)表E...

    awkj 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

閱讀需要支付1元查看
<