成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

大規(guī)模擁擠人群:一個破紀錄的人群計數(shù)算法!

Scott / 3410人閱讀

摘要:人群計數(shù)有什么用讓我們用一個例子來理解人群計數(shù)的有用性?;诘姆椒ㄎ覀儾挥每磮D像的補丁,而是使用可靠的卷積神經(jīng)網(wǎng)絡構(gòu)建一個端到端的回歸方法。這將整個圖像作為輸入,并直接生成人群計數(shù)。

人臉識別或人臉簽到往往是1:1,或1:N的圖像識別技術(shù),但如何數(shù)人數(shù),少量只要能識別人臉當然就可以數(shù)人數(shù)了。

但當我們面臨大規(guī)模擁擠的人群,我們可能不需要識別人臉,只是人群計數(shù),是否可以實現(xiàn)呢?

能幫我數(shù)數(shù)圖片中這個活動有多少人參加嗎?

太多了?那這個怎么樣?

還是不行?沒關(guān)系!

今天我們將教你創(chuàng)建一個基于深度學習的人群計數(shù)模型。

本文是基于卷積神經(jīng)網(wǎng)絡(CNN)的工作方式建立的,在進一步研究之前,您可以參考下面這篇文章來了解這個主題:

https://www.analyticsvidhya.com/blog/2018/12/guide-convolutional-neural-network-cnn/?utm_source=blog&utm_medium=crowd-counting

現(xiàn)在,我們正式開始介紹~

目錄

?1.什么是人群計數(shù)?

?2.為什么要數(shù)人群?

?3.了解不同計算機視覺技術(shù)在人群計數(shù)中的應用

?4.CSRNet的體系結(jié)構(gòu)與訓練方法

?5.用Python構(gòu)建自己的人群計數(shù)模型

什么是人群計數(shù)?

人群計數(shù)是一種計算或估計圖像中的人數(shù)的技術(shù)。

還是這張圖——

你能告訴我這個圖片里大概有多少人嗎?最直接的方法是手工算,但這有實際意義嗎?當人群這么多的時候,一個一個數(shù)幾乎是不可能的!

人群科學家們可以通過對圖片區(qū)域劃分,計算圖像某些部分的人數(shù),然后外推得出估計值。這種方法是現(xiàn)在較為普遍的方式,但是也存在誤差。幾十年來,我們不得不依靠粗略的指標來估計這個數(shù)字。

“肯定有更好、更準確的方法吧?

沒錯,有!”

雖然我們還沒有算法可以給出確切的數(shù)字,但大多數(shù)計算機視覺技術(shù)可以產(chǎn)生幾乎完美的較精確估計。讓我們先了解為什么人群計數(shù)是重要的,然后再深入研究其背后的算法。

人群計數(shù)有什么用?

讓我們用一個例子來理解人群計數(shù)的有用性。想象一下,中國傳媒大學剛剛舉辦了一個大型的數(shù)據(jù)科學會議?;顒悠陂g舉行了許多不同的會議。

你被要求分析和估計每一次參加會議的人數(shù)。這將幫助我們了解什么樣的會議吸引了最多的人數(shù)(以及哪些會議在這方面失敗了)。并由此可以針對性塑造明年的會議,所以這是一項重要的任務!

參加會議的人數(shù)太多了,如果人工數(shù)可能將需要很久!這就是學習人群計數(shù)技能的作用所在。只要獲得每一次會議中人群的照片,就可以建立了一個計算機視覺模型來完成其余的工作!

還有很多其他情況下,人群計數(shù)算法正在改變行業(yè)的運作方式:

統(tǒng)計參加體育賽事的人數(shù)

估計有多少人參加了就職典禮或游行(可能是政治集會)

對交通繁忙地區(qū)的監(jiān)察

協(xié)助人員配置和資源分配

不同計算機視覺技術(shù)在人群計數(shù)中的應用

概括地說,目前我們可以用四種方法來計算人群中的人數(shù):

1.基于檢測的方法

我們可以使用一個移動窗口式檢測器來識別圖像中的人,并計算出有多少人。用于檢測的方法需要訓練有素的分類器來提取低層次特征。雖然這些方法在人臉檢測方面效果很好,但在擁擠的圖像上效果不佳,因為大多數(shù)目標對象都不是清晰可見的。

2.回歸方法

對于低級別的特征,上述方法使用并不有效,可以使用基于回歸的方法。我們首先從圖像中裁剪補丁,然后,針對每個補丁,提取低級別的特征。

3.基于密度估計的方法

我們首先為要檢測的圖片創(chuàng)建一個密度圖。然后,該算法學習了提取的特征與目標密度映射之間的線性映射。我們也可以利用隨機森林回歸來學習非線性映射。

4.基于CNN的方法

我們不用看圖像的補丁,而是使用可靠的卷積神經(jīng)網(wǎng)絡(CNN)構(gòu)建一個端到端的回歸方法。這將整個圖像作為輸入,并直接生成人群計數(shù)。CNN在回歸或分類任務中非常有效,并且在生成密度圖方面也證明了它們的價值。

CSRNet是我們在本文中將實現(xiàn)的一種技術(shù),它部署了一個更深層次的CNN,用于捕獲高級別的特性和生成高質(zhì)量的密度圖,而不需要擴展網(wǎng)絡復雜性。在講到編碼部分之前,讓我們先了解一下CSRNet是什么。

了解CSRNet的體系結(jié)構(gòu)和培訓方法

CSRNet以VGG-16為前端,具有很強的遷移學習能力.VGG的輸出大小是原始輸入大小的?。CSRNet還在后端使用膨脹的卷積層。

那么,什么是膨脹的卷積?請參考以下圖像:

使用膨脹卷積的基本概念是在不增加參數(shù)的情況下擴大核。所以,如果膨脹率是1,我們?nèi)『瞬⑺D(zhuǎn)到整個圖像上。然而,如果我們將擴展率提高到2,內(nèi)核就會像上面的圖像所示的那樣擴展(按照每個圖像下面的標簽)。它可以替代匯集圖層。

基礎數(shù)學(推薦,選擇性了解)

我要花點時間解釋一下數(shù)學是如何工作的。(請注意,在Python中實現(xiàn)算法并不是必須的,但我強烈建議學習基本思想。)當我們需要調(diào)整或修改模型時,這將派上用場。

假設我們有一個輸入x(m,n),一個濾波器w(i,j),以及膨脹率r。輸出y(m,n)為:?

我們可以用(k*k)核推廣這個方程,其擴張率為r。內(nèi)核擴展到:

([K+(k-1)*(r-1)]*[k+(k-1)*(r-1)])

因此,每一幅圖像都產(chǎn)生了地面真相。在給定的圖像中,每個人的頭部都是用高斯核模糊的。所有圖像都被裁剪成9個補丁,每個補丁的大小是圖像原始大小的1/4。

前4個補丁分為4個四分之一,其他5個補丁隨機裁剪。最后,每個補丁的鏡像被取為訓練集的兩倍。?

簡而言之,這就是CSRNet背后的體系結(jié)構(gòu)細節(jié)。接下來,我們將查看它的培訓細節(jié),包括所使用的評估指標。

隨機梯度下降用于訓練CSRNet作為端到端結(jié)構(gòu)。在訓練期間,固定學習率設置為1e-6。損失函數(shù)被認為是歐幾里德距離,以便測量地面之間的差異 真相和估計的密度圖。這表示為:

其中N是訓練批次的大小。CSRNet中使用的評估標準是mae和mse。,即平均誤差和均方誤差。這些建議是由以下方面提供的:

在這里,Ci是估計數(shù):

L和W是預測密度圖的寬度。

我們的模型將首先預測給定圖像的密度圖。如果沒有人在場,像素值將為0。如果某個像素對應于某個人,則將指定某個預定義的值。因此,計算一個人的總像素值會給出圖像中人的數(shù)量。

那么現(xiàn)在,是時候建立我們自己的人群計數(shù)模型了!

建立自己的人群計數(shù)模型

我們將在上??萍紨?shù)據(jù)集上實現(xiàn)CSRNet。這包括1198個加注釋的圖片,總共有330,165人。您可以從這里下載。

https://www.dropbox.com//s/fipgjqxl7uj8hd5/ShanghaiTech.zip?dl=0

使用下面的代碼塊克隆CSRNet-py火炬存儲庫。這保存了用于創(chuàng)建數(shù)據(jù)集、培訓模型和驗證結(jié)果的全部代碼:

git clone https://github.com/leeyeehoo/CSRNet-pytorch.git

請先安裝CUDA和PyTorch。這些是我們將在下面使用的代碼背后的主干。

現(xiàn)在,將數(shù)據(jù)集移動到您在上面克隆的存儲庫并解壓它。然后我們需要創(chuàng)建基本事實值.make_dataset.ipynbfile是我們的救星。我們只需要在該筆記本中做一些小改動:

#setting the root to the Shanghai dataset you have downloaded

# change the root path as per your location of datasetroot = "/home/pulkit/CSRNet-pytorch/"

現(xiàn)在,讓我們?yōu)閜art_A和part_B中的圖像生成基本真值:?

生成每幅圖像的密度圖是一個時間步驟。所以,在代碼運行時,去泡一杯咖啡吧。

到目前為止,我們已經(jīng)在第A部分中為圖像生成了地面真值,我們將對Part_B圖像進行同樣的處理。但在此之前,讓我們看看一個示例圖像,并繪制它的地面真實熱圖:?

生成每張圖像的密度圖是一個很長的時間。所以在代碼運行時去沖泡一杯咖啡吧,耐心等待一下。?

到目前為止,我們已經(jīng)為part_A中的圖像生成了基本真值。 我們將對part_B圖像執(zhí)行相同的操作。但在此之前,讓我們看一個示例圖像并繪制其地面真實熱圖:

plt.imshow(Image.open(img_paths[0]))

gt_file = h5py.File(img_paths[0].replace(".jpg",".h5").replace("images","ground-truth"),"r")

groundtruth = np.asarray(gt_file["density"])

plt.imshow(groundtruth,cmap=CM.jet)

讓我們數(shù)一下這張圖片中有多少人在場:

np.sum(groundtruth)

270.32568?

同樣,我們將為part_B生成值:?

我們將使用克隆目錄中可用的.json文件。我們只需要更改JSON文件中圖像的位置。為此,打開.json文件并將當前位置替換為圖像所在的位置。

請注意,所有這些代碼都是用Python 2編寫的。如果您使用的是其他任何Python版本,請進行以下更改:?

1.在model.py中,將第18行中的xrange更改為range

2.在model.py中更改第19行:list(self.frontend.state_dict()。items())[i] [1] .data [:] = list(mod.state_dict()。items())[i][1]。數(shù)據(jù)[:]

3.在image.py中,將ground_truth替換為ground-true?

現(xiàn)在,打開一個新的終端窗口并鍵入以下命令:

cd CSRNet-pytorch

python train.py part_A_train.json part_A_val.json 0 0

這個步驟需要一些時間,耐心等一下。你也可以減少train.py文件中的紀元數(shù)量,以加快這個過程。你也可以從這里下載預先訓練的重量,如果你不想等待的話。

最后,讓我們檢查一下我們的模型在看不見的數(shù)據(jù)上的性能。我們將使用val.ipynb文件來驗證結(jié)果。記住要更改到預先訓練過的權(quán)重和圖像的路徑。

#defining the image path

img_paths = []

for path in path_sets:

? ? for img_path in glob.glob(os.path.join(path, "*.jpg")):

? ? ? ?img_paths.append(img_path)

model = CSRNet()

#defining the model

model = model.cuda()

#loading the trained weights

checkpoint = torch.load("part_A/0model_best.pth.tar")

model.load_state_dict(checkpoint["state_dict"])

檢查測試圖像上的MAE(平均誤差),以評估我們的模型:

我們得到的MAE值為75.69,相當不錯?,F(xiàn)在讓我們檢查一下單個圖像上的預測:

哇,最初的數(shù)字是382,我們的模型估計圖像中有384人。這幾乎是一個完美的演繹!

恭喜你建立了自己的人群計數(shù)模型!

原始論文的評測圖和結(jié)果

最后

您可以在https://colab.research.google.com上測試跑人群計數(shù)。

需要安裝:Pytorch和Cuda

附論文下載地址:CSRNet: Dilated Convolutional Neural Networks for Understanding the HighlyCongested?

聲明:本文版權(quán)歸原作者所有,文章收集于網(wǎng)絡,為傳播信息而發(fā),如有侵權(quán),請聯(lián)系小編及時處理,謝謝!

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4860.html

相關(guān)文章

  • Python所有方向學習路線,你們要知識體系在這,千萬別做了無用功!

    摘要:適用人群爬蟲方向數(shù)據(jù)分析方向非程序員加薪四開發(fā)前后端開發(fā)是程序員職業(yè)中的熱門,目前來講,人才缺口依然很大。寄語上面就是所有方向的學習路線了,把你感興趣的方向掌握了之后,你去找工作不是什么問題的。 ...

    opengps 評論0 收藏0
  • 如何用Python實現(xiàn)景區(qū)安防系統(tǒng)

      本設計的時候,應用YOLO目標檢測算法、Openpose姿勢檢測算法、deepsort跟蹤算法、MSCNN群體密度估計技術(shù)實現(xiàn)了火災監(jiān)測、抽煙數(shù)據(jù)監(jiān)測、行為表現(xiàn)安全監(jiān)控、人群密度數(shù)據(jù)監(jiān)測、防護口罩率數(shù)據(jù)監(jiān)測、人員定位系統(tǒng)數(shù)據(jù)監(jiān)測六個基本要素,對Python完成旅游景點安防監(jiān)控系統(tǒng)感興趣的小伙伴一起了解一下吧  本設計的時候,應用YOLO目標檢測算法、Openpose姿勢檢測算法、deepsor...

    89542767 評論0 收藏0
  • 第7期 Datawhale 組隊學習計劃

    馬上就要開始啦這次共組織15個組隊學習 涵蓋了AI領(lǐng)域從理論知識到動手實踐的內(nèi)容 按照下面給出的最完備學習路線分類 難度系數(shù)分為低、中、高三檔 可以按照需要參加 - 學習路線 - showImg(https://segmentfault.com/img/remote/1460000019082128); showImg(https://segmentfault.com/img/remote/...

    dinfer 評論0 收藏0
  • 數(shù)據(jù)訓練營|BAT都在用方法,詳解A/B測試那些坑!

    摘要:我們再來看國內(nèi)一線公司內(nèi)的一個實驗吧數(shù)據(jù)訓練營都在用的方法,詳解測試的那些坑如上是不同的引導卡片樣式的實驗,最終結(jié)果樣式比樣式的提升。設指標數(shù)值隱變量列顯變量列含方案變量。 作者|螞蟻金服人工智能部產(chǎn)品經(jīng)理 范磊 本文首發(fā)|微信公眾號 友盟數(shù)據(jù)服務 (ID:umengcom),轉(zhuǎn)載請注明出處 If you are not running experiments,you are prob...

    Gilbertat 評論0 收藏0
  • COVID-19 將加速云計算六個原因

    摘要:當經(jīng)濟復蘇時,招聘將再次成為關(guān)鍵戰(zhàn)場,特別是對年輕求職者來說,不是大量使用云計算的公司將變得不那么有吸引力。 Nutanix副總裁兼銷售首席運營官Andrew Brinded表示,云計算為我們所處的時代提供了一種可行的部署模式,其影響必將不斷擴大。1991年,著名的科技記者斯圖爾特·奧爾索普(Stewart Alsop)做出了一個著名的錯誤預測。我預測最后一臺主機將在1996年3月15日...

    蘇丹 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<