成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

整合全部頂尖目標檢測算法:FAIR開源Detectron

劉玉平 / 2986人閱讀

摘要:昨天,研究院開源了,業(yè)內(nèi)較佳水平的目標檢測平臺。項目地址是實現(xiàn)頂尖目標檢測算法包括的軟件系統(tǒng)。因此基本上已經(jīng)是最目前包含最全與最多目標檢測算法的代碼庫了。

昨天,F(xiàn)acebook AI 研究院(FAIR)開源了 Detectron,業(yè)內(nèi)較佳水平的目標檢測平臺。據(jù)介紹,該項目自 2016 年 7 月啟動,構(gòu)建于 Caffe2 之上,目前支持大量機器學習算法,其中包括 Mask R-CNN(何愷明的研究,ICCV 2017 較佳論文)和 Focal Loss for Dense Object Detection,(ICCV 2017 較佳學生論文)。Facebook 稱,該工具包已被應用與公司內(nèi)部很多團隊應用于各類應用中,一旦訓練完成,這些計算機視覺模型可被部署在云端或移動設備上。

項目地址:https://github.com/facebookresearch/Detectron

Detectron?

Detectron 是 Facebook AI Research 實現(xiàn)頂尖目標檢測算法(包括 Mask R-CNN)的軟件系統(tǒng)。該系統(tǒng)是基于 Python 和深度學習框架 Caffe 2 而構(gòu)建的。

在 FAIR 實驗室,Detectron 目前已經(jīng)支持很多研究項目的實現(xiàn),包括:

Feature Pyramid Networks for Object Detection (https://arxiv.org/abs/1612.03144)

Mask R-CNN (https://arxiv.org/abs/1703.06870)

Detecting and Recognizing Human-Object Interactions (https://arxiv.org/abs/1704.07333)

Focal Loss for Dense Object Detection (https://arxiv.org/abs/1708.02002)

Non-local Neural Networks (https://arxiv.org/abs/1711.07971)

Learning to Segment Every Thing (https://arxiv.org/abs/1711.10370)

Data Distillation: Towards Omni-Supervised Learning (https://arxiv.org/abs/1712.04440)

Mask R-CNN 輸出示例

簡介

Detectron 的目標是為目標檢測研究提供高質(zhì)量、高性能的代碼庫,它靈活的特性可以支持快速實現(xiàn)和驗證新研究。Detectron 目前包含以下目標檢測算法的實現(xiàn):

Mask R-CNN (https://arxiv.org/abs/1703.06870)—Marr Prize at ICCV 2017

RetinaNet (https://arxiv.org/abs/1708.02002)—Best Student Paper Award at ICCV 2017

Faster R-CNN (https://arxiv.org/abs/1506.01497)

RPN (https://arxiv.org/abs/1506.01497)

Fast R-CNN (https://arxiv.org/abs/1504.08083)

R-FCN (https://arxiv.org/abs/1605.06409)

這些目標檢測算法主要使用以下卷積網(wǎng)絡架構(gòu):

ResNeXt{50,101,152} (https://arxiv.org/abs/1611.05431)

ResNet{50,101,152} (https://arxiv.org/abs/1512.03385)

Feature Pyramid Networks (https://arxiv.org/abs/1612.03144) (with ResNet/ResNeXt)

VGG16 (https://arxiv.org/abs/1409.1556)

在這些目標檢測算法中,我們比較熟悉的就是 Mask R-CNN,它是在 Faster R-CNN 上的擴展,即在用于邊界框識別的分支上添加了一個并行的分支以預測目標掩碼。該方法能夠有效地檢測圖像中的目標,同時還能為每個實例生成一個高質(zhì)量的分割掩碼。而在 RetinaNet 中,研究者提出了全新的 Focal Loss 方法,并集中于稀疏、困難樣本中的訓練,避免了訓練過程中可能出現(xiàn)的大量負面因素。該論文的研究者表示,當使用 Focal Loss 進行訓練時,RetinaNet 可以達到此前一步檢測器的速度,同時準確性高于業(yè)內(nèi)較佳的兩步檢測器。除了這兩個在 ICCV 2017 大為出彩的目標檢測算法外,其它如 Fast R-CNN 和 R-FCN 等都是十分優(yōu)秀和經(jīng)典的目標檢測方案。

在卷積網(wǎng)絡架構(gòu)中,值得注意的是特征金字塔型網(wǎng)絡(FPN),它主要融合了多層特征而改進了 CNN 的特征提取方式。它利用了 CNN 固有的多尺度、多層級的金字塔結(jié)構(gòu)去構(gòu)建特征金字塔網(wǎng)絡,并使用一種自上而下的 Skip Connector 在所有尺度上構(gòu)建高級語義特征圖。

上述的檢測算法和 CNN 架構(gòu)在目標檢測任務上都有非常好的效果,他們基本上展現(xiàn)了該領(lǐng)域最優(yōu)的水平。而 Detectron 包含了這些算法和架構(gòu)的一大組基線結(jié)果和已訓練模型,我們可以直接下載它們。例如下圖是 RetinaNet 的基線結(jié)果與對應的模型下載地址,它同時還提供了訓練和推斷過程中的有用數(shù)據(jù)。

我們粗略統(tǒng)計了一下,該項目有 70 多個不同設定的預訓練模型。因此 Detectron 基本上已經(jīng)是最目前包含最全與最多目標檢測算法的代碼庫了。此外,該項目也提供了安裝指南,包括 Caffe 2 和 COCO 數(shù)據(jù)集。值得注意的是,該代碼庫用的是 Python 2,它還需要 NVIDIA GPU、Linux 系統(tǒng)和其它一些標準的 Python 數(shù)值計算包。

模型庫與基線結(jié)果:https://github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md

安裝指導:https://github.com/facebookresearch/Detectron/blob/master/INSTALL.md

最后,Detectron 還提供了一個文檔以展示如何使用該研究工具。例如我們在圖像文件目錄執(zhí)行推斷,我們可以直接使用 infer.simple.py 工具。在下面的案例中,我們使用了一個端到端已訓練的 Mask R-CNN 模型(以 ResNet-101-FPN 為基本卷積架構(gòu))執(zhí)行推斷:

python2 tools/infer_simple.py

--cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml

--output-dir /tmp/detectron-visualizations

--image-ext jpg

--wts https://s3-us-west-2.amazonaws.com/detectron/35861858/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl

demo

更多詳細的使用文檔請查看:https://github.com/facebookresearch/Detectron/blob/master/GETTING_STARTED.md。

參考文獻

Data Distillation: Towards Omni-Supervised Learning. Ilija Radosavovic, Piotr Dollár, Ross Girshick, Georgia Gkioxari, and Kaiming He. Tech report, arXiv, Dec. 2017.

Learning to Segment Every Thing. Ronghang Hu, Piotr Dollár, Kaiming He, Trevor Darrell, and Ross Girshick. Tech report, arXiv, Nov. 2017.

Non-Local Neural Networks. Xiaolong Wang, Ross Girshick, Abhinav Gupta, and Kaiming He. Tech report, arXiv, Nov. 2017.

Mask R-CNN. Kaiming He, Georgia Gkioxari, Piotr Dollár, and Ross Girshick. IEEE International Conference on Computer Vision (ICCV), 2017.

Focal Loss for Dense Object Detection. Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. IEEE International Conference on Computer Vision (ICCV), 2017.

Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour. Priya Goyal, Piotr Dollár, Ross Girshick, Pieter Noordhuis, Lukasz Wesolowski, Aapo Kyrola, Andrew Tulloch, Yangqing Jia, and Kaiming He. Tech report, arXiv, June 2017.

Detecting and Recognizing Human-Object Interactions. Georgia Gkioxari, Ross Girshick, Piotr Dollár, and Kaiming He. Tech report, arXiv, Apr. 2017.

Feature Pyramid Networks for Object Detection. Tsung-Yi Lin, Piotr Dollár, Ross Girshick, Kaiming He, Bharath Hariharan, and Serge Belongie. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.

Aggregated Residual Transformations for Deep Neural Networks. Saining Xie, Ross Girshick, Piotr Dollár, Zhuowen Tu, and Kaiming He. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017.

R-FCN: Object Detection via Region-based Fully Convolutional Networks. Jifeng Dai, Yi Li, Kaiming He, and Jian Sun. Conference on Neural Information Processing Systems (NIPS), 2016.

Deep Residual Learning for Image Recognition. Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016.

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Conference on Neural Information Processing Systems (NIPS), 2015.

Fast R-CNN. Ross Girshick. IEEE International Conference on Computer Vision (ICCV), 2015.?

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4714.html

相關(guān)文章

  • Facebook開源Mask R-CNN的PyTorch 1.0基準

    摘要:近日,開源了和的實現(xiàn)基準。是商湯和港中文近日聯(lián)合開源的基于的開源目標檢測工具包。你也可以配置你自己的到數(shù)據(jù)集的路徑。 近日,F(xiàn)acebook AI Research 開源了 Faster R-CNN 和 Mask R-CNN 的 PyTorch 1.0 實現(xiàn)基準:MaskRCNN-Benchmark。相比 Detectron 和 mmdetection,MaskRCNN-Benchmark ...

    calx 評論0 收藏0
  • Mask R-CNN源代碼終于來了,還有它背后的物體檢測平臺

    摘要:現(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎平臺。是的物體檢測平臺,今天宣布開源,它基于,用寫成,這次開放的代碼中就包含了的實現(xiàn)。說,將平臺開源出來,是想要加速世界各地實驗室的研究,推動物體檢測的進展。 等代碼吧。從Mask R-CNN論文亮相至今的10個月里,關(guān)于它的討論幾乎都會以這句話收尾?,F(xiàn)在,官方版開源代碼終于來了。同時發(fā)布的,是這項研究背后的一個基礎平臺:De...

    robin 評論0 收藏0
  • 如何通過人工智能“避開”內(nèi)容安全的“坑”?

    摘要:人工智能技術(shù)的初步應用隨著網(wǎng)絡強國戰(zhàn)略思想加強網(wǎng)絡內(nèi)容建設等指導思想的推出和強化,內(nèi)容安全已經(jīng)成為互聯(lián)網(wǎng)企業(yè)生存和發(fā)展的生命線。 歡迎訪問網(wǎng)易云社區(qū),了解更多網(wǎng)易技術(shù)產(chǎn)品運營經(jīng)驗。 10月16日,2018年 AIIA人工智能開發(fā)者大會在蘇州舉辦。會議邀請了國內(nèi)外人工智能產(chǎn)業(yè)知名人物、國家政府主管部門、行業(yè)內(nèi)頂尖企業(yè)、知名學者代表、開源社區(qū)優(yōu)秀貢獻團隊及個人,共同交流了技術(shù)現(xiàn)狀趨勢、生態(tài)...

    _DangJin 評論0 收藏0
  • 移動端開發(fā)工程師的AI突圍之路

    摘要:在此期間,移動端開發(fā)工程師可謂是風生水起,幾乎人們?nèi)粘I钪薪佑|互聯(lián)網(wǎng)的途徑,都是通過一個叫的東西,基于這兩大系統(tǒng)平臺。而上面說的這些事情,都是當今移動端開發(fā)者的機會。 古典程序員集體恐慌 隨著2007年第一臺iPhone問世,隨后Android的猛烈跟進,蘋果和谷歌推動了長達10年的移動互聯(lián)網(wǎng)浪潮。在此期間,移動端開發(fā)工程師可謂是風生水起,幾乎人們?nèi)粘I钪薪佑|互聯(lián)網(wǎng)90%的途徑,都...

    2bdenny 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<