摘要:年,舉辦過一個(gè)很受歡迎的貓狗識(shí)別競賽。當(dāng)時(shí),正如比賽官網(wǎng)宣布的,在使用張貓和狗的圖像進(jìn)行訓(xùn)練后,較先進(jìn)的算法分辨貓狗的準(zhǔn)確率是。醫(yī)學(xué)診斷異常檢測圖像識(shí)別的工業(yè)應(yīng)用,等等。小結(jié)結(jié)果令人吃驚。
2013年,Kaggle舉辦過一個(gè)很受歡迎的貓狗識(shí)別競賽(Dogs vs. Cats)。比賽的目標(biāo)是訓(xùn)練一種能夠檢測圖像中是否包含貓或者狗的算法。
當(dāng)時(shí),正如比賽官網(wǎng)宣布的,在使用13000張貓和狗的圖像進(jìn)行訓(xùn)練后,較先進(jìn)的算法分辨貓狗的準(zhǔn)確率是82.7%。
我的結(jié)果
我應(yīng)用了遷移學(xué)習(xí)的方法,這是一種訓(xùn)練模型完成其他類似任務(wù),然后重新訓(xùn)練它來完成當(dāng)前的任務(wù)的技術(shù)。
我微調(diào)了一個(gè)VGG19模型,使用6張隨機(jī)選擇的圖像(如下圖):
在經(jīng)過41 epochs的訓(xùn)練后,我的模型達(dá)到了89.97%的準(zhǔn)確率。驗(yàn)證集大小是24994。
你可以在我的GitHub倉庫找到所需要的所有東西來重現(xiàn)這個(gè)實(shí)驗(yàn):https://github.com/radekosmulski/dogs_vs_cats
這個(gè)結(jié)果是完全出乎意料的。我所使用的技術(shù)在fast.ai的“Practical Deep Learning for Coders”課程的第一節(jié)課就被介紹過,在課程提供的Jupyter筆記中,它需要7行代碼來執(zhí)行遷移學(xué)習(xí)。
這意味著,任何會(huì)在電腦上移動(dòng)文件的人都能夠?qū)W會(huì)將這一前沿技術(shù)應(yīng)用到他們選擇的問題上。醫(yī)學(xué)診斷、異常檢測、圖像識(shí)別的工業(yè)應(yīng)用,等等。是的,你仍然需要一些數(shù)據(jù),你也需要對監(jiān)督學(xué)習(xí)是什么以及它的工作原理有一些高層次的理解。但所需要的也就這么些。
小結(jié)
結(jié)果令人吃驚。我沒有應(yīng)用數(shù)據(jù)增強(qiáng)(data augmentation),也不需要調(diào)整學(xué)習(xí)率,也不用擔(dān)心正則化。我甚至沒有測試不同的架構(gòu)——這就是我嘗試的第一個(gè)架構(gòu)。
是的,有人可能會(huì)說,從照片中將貓和狗辨別出來并非什么艱深的科學(xué)。但我得提醒你,人類在40年前就已登上月球,但40年后的今天我們?nèi)匀粺o法告訴計(jì)算機(jī)如何執(zhí)行這個(gè)看似簡單的任務(wù),將準(zhǔn)確率提高到85%以上。是的,我選擇拿來微調(diào)的這個(gè)模型本是訓(xùn)練來執(zhí)行視覺識(shí)別任務(wù)的,并且表現(xiàn)出色。
但是請稍等一下,請?jiān)匍喿x一下這篇文章的前兩段。我打破了4年前這個(gè)任務(wù)上較先進(jìn)的結(jié)果,并且毫不費(fèi)力。我在云上運(yùn)行一臺(tái)超級計(jì)算機(jī),費(fèi)用為每小時(shí)約0.2美元(這是我付給Amazon租虛擬機(jī)的費(fèi)用)。這是非常意義重大的。
這表明,今天的深度學(xué)習(xí)應(yīng)用的局限不再是由技術(shù)驅(qū)動(dòng)的——我們已經(jīng)擁有所需的硬件和軟件。是的,對于某些任務(wù),我們需要更快的處理器,或者更多數(shù)據(jù),或者更好的算法。但是,今天深度學(xué)習(xí)存在非常大的尚待被發(fā)現(xiàn)的應(yīng)用范圍,而限制因素是該項(xiàng)技術(shù)相關(guān)知識(shí)傳播的速度。
以上來自一個(gè)在大學(xué)主修一年半社會(huì)學(xué)后輟學(xué),自學(xué)編程但絕不是一個(gè)編程大師的人,只花了一個(gè)下午的時(shí)間的工作突破了4年前的較先進(jìn)的結(jié)果,并且使用的數(shù)據(jù)只有它的2166分之一。那么我提出的問題是:你將應(yīng)用這項(xiàng)技術(shù)來做什么讓世界變得更好的工作?
PS. Phillipe Golle 的 Machine Learning Attacks Against the Asirra CAPTCHA 這篇論文是2013年的state-of-the-art的解決方案,論文:http://xenon.stanford.edu/~pgolle/papers/dogcat.pdf
PS. 2 Kaggle貓狗識(shí)別競賽的優(yōu)勝者準(zhǔn)確率達(dá)到98.914%,在用25000張圖像仔細(xì)訓(xùn)練一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)后取得。
原文:https://medium.com/@radekosmulski/can-we-beat-the-state-of-the-art-from-2013-with-only-0-046-of-training-examples-yes-we-can-18be24b8615f
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4622.html
摘要:年月日,將標(biāo)志著一個(gè)時(shí)代的終結(jié)。數(shù)據(jù)集最初由斯坦福大學(xué)李飛飛等人在的一篇論文中推出,并被用于替代數(shù)據(jù)集后者在數(shù)據(jù)規(guī)模和多樣性上都不如和數(shù)據(jù)集在標(biāo)準(zhǔn)化上不如。從年一個(gè)專注于圖像分類的數(shù)據(jù)集,也是李飛飛開創(chuàng)的。 2017 年 7 月 26 日,將標(biāo)志著一個(gè)時(shí)代的終結(jié)。那一天,與計(jì)算機(jī)視覺頂會(huì) CVPR 2017 同期舉行的 Workshop——超越 ILSVRC(Beyond ImageNet ...
摘要:是為結(jié)果導(dǎo)向型人群開設(shè)的深度學(xué)習(xí)在線課程。但是最關(guān)鍵的是,我想通過構(gòu)建簡單的深度學(xué)習(xí)解決方案來實(shí)現(xiàn)理論和實(shí)踐的相結(jié)合。我的目標(biāo)是在一天結(jié)束前進(jìn)入排名的前。我的時(shí)間都用于學(xué)習(xí)庫組織數(shù)據(jù)和評估結(jié)果都是一些與深度學(xué)習(xí)無關(guān)的簡單流程。 Fast.ai是Jeremy Howard為結(jié)果導(dǎo)向型人群開設(shè)的深度學(xué)習(xí)在線課程。我讀過很多關(guān)于機(jī)器學(xué)習(xí)的書,也參加過不少這方面的課程,但我認(rèn)為Fast.ai是迄今為...
閱讀 3288·2023-04-25 18:03
閱讀 1151·2021-11-15 11:38
閱讀 5560·2021-10-25 09:45
閱讀 847·2021-09-24 09:48
閱讀 2303·2021-09-22 15:34
閱讀 1742·2019-08-30 15:44
閱讀 2684·2019-08-30 13:12
閱讀 609·2019-08-29 16:05