摘要:今天筆者就介紹一個不用編程就能訓(xùn)練出深度學(xué)習(xí)定制模型的方法。答案是,是本人開發(fā)的,自認(rèn)為做得比百度好,關(guān)鍵是從入庫到訓(xùn)練,識別,完全不用編程。。。
近年來基于深度學(xué)習(xí)的人工智能非?;?。提起人工智能都覺得是高大上,好像離普通人很遠(yuǎn),更別說訓(xùn)練出定制模型了。唔,不知道什么是模型,為什么要定制?好吧,你可以想象模型就是一個人, 剛開始啥也不懂,使用教材(或者說樣本)教他,他就能學(xué)會識別不同的物體。使用不同的教材(樣本)就能教出不同的人。 至于為什么要定制,兩個原因:
專業(yè)領(lǐng)域需要更為細(xì)致的分類。 比如,通用物體樣本訓(xùn)練出來的模型,可能能識別數(shù)千種常見物品,它能區(qū)分出蘋果和梨, 但是不太可能區(qū)分出好蘋果和壞蘋果。
深度學(xué)習(xí)模型非常敏感,背景,顏色,光線,角度,模糊程度的輕微變化就可能導(dǎo)致識別率下降或者失效。能識別數(shù)千種物體的通用模型,往往在專用物體識別上不太好用。
今天筆者就介紹一個不用編程就能訓(xùn)練出深度學(xué)習(xí)定制模型的方法。 為了吸引眼球,今天我們就訓(xùn)練一個能區(qū)分美女和野獸的模型來。
訓(xùn)練之前,我們首先需要收集對應(yīng)的樣本。 美女圖片好收集,百度或者google上點擊圖片, 輸入關(guān)鍵詞"美女",大把:
然后點擊瀏覽器的文件->另存為, 就可以存下整個HTML,包括圖片(在子目錄里面)。
比較麻煩的是野獸的圖片,輸入關(guān)鍵詞"野獸"通常搜出來的是"beauty and beast"劇照或者卡通形象。 沒辦法,我們折中下, 分別搜"老虎""獅子""豹""狼"和"野生動物"這5個關(guān)鍵詞,搜出來的圖片都作為野獸一類,拿來進行訓(xùn)練。
最終我們存的目錄結(jié)構(gòu)如下:
通常我們每一類的圖片在200張左右最合適。我們這里僅僅是一個demo,美女類大概下載了60張,野獸類大概200張。
好了, 我們的圖片已經(jīng)收集完畢, 這時我們需要刪除子目錄下所有非jpg文件,便于后面選擇并上傳圖片。
下面我們就可以上傳圖片,并啟動模型訓(xùn)練了。 瀏覽器中打開http://www.ai1to1.com 點擊登錄。沒賬戶的請先注冊一個賬戶。 等等,可能有人問,這是個什么鬼網(wǎng)站? 為什么不用百度AI?他們也有定制模型訓(xùn)練。 答案是,ai1to1是本人開發(fā)的,:)自認(rèn)為做得比百度好,關(guān)鍵是從入庫到訓(xùn)練,識別,完全不用編程。。。具體去網(wǎng)站首頁看吧。 有人說,大言不慚! 看到這里,希望管理員大人不要認(rèn)為這是廣告而刪除本文,因為往下看,確實有干貨的。 :)
言歸正傳,我們登錄ai1to1,首先需要創(chuàng)建項目:
這里最關(guān)鍵的是需要"創(chuàng)建分類",建立2個類別,因為我們只有美女和野獸兩類。 分類分別就是0,和1。
然后我們進入圖片管理上傳圖片, 需要選擇項目和類別分別上傳:
大部分人可能都知道,選擇文件時, CTRL+A就可以選擇所有目錄下的文件,或者鼠標(biāo)選擇時按住CTRL鍵,就可以多帶帶選擇文件。
這里我們上傳美女圖片到分類0, 其他圖片上傳到分類1。請記住這個對應(yīng)關(guān)系,因為后面識別時,服務(wù)器只會返回索引0或者1。
上傳完畢,我們就可以啟動訓(xùn)練了:
首先啟動trainServer(點擊對應(yīng)"前往"),得到響應(yīng):{"ret":"OK","error":""}
然后啟動train,得到響應(yīng):{"ret":"OK"}
檢查訓(xùn)練進度:
{"stopped":false,"loss":0.07083519548177719,"trainSeconds":36.359,"error":"","ret":"OK"}
等待loss穩(wěn)定在0.001以下時,我們就可以停止訓(xùn)練(點擊停止trainServer):
{"stopped":false,"loss":0.0008496259688399732,"trainSeconds":655.577,"error":"","ret":"OK"}
一共訓(xùn)練了大概10分鐘。
好吧, 我們訓(xùn)練完成了, 現(xiàn)在進行最激動人心的檢測階段。
首先"啟動detectServer",得到響應(yīng):{"ret":"OK","error":""}
然后"通過web頁面識別",輸入上個截圖里面的projectid和servicekey:
這時我們從百度圖片里面搜一張前面沒有的美女圖片, 然后上傳,點擊識別,得到響應(yīng):
time cost:882ms, result:{"balance":1998,"topList":[{"index":0,"probability":0.924784779548645},{"index":1,"probability":0.07402833551168442}],"error":""}
記得我們前面說過,0代表美女,1代表野獸。 這里的美女識別可能性高達(dá)92%, 說明這個定制模型還是相當(dāng)不錯的。 :)
我保留了截圖里的projectid:17和servicekey:1bc6c6bb-f19a-4d97-b810-70c5d53eb524,大家也可以上傳一張美女或者野獸的圖片, 測試下這個定制模型是否好用? 當(dāng)然, 你們也可以自己注冊一個帳號,定制自己的模型,而且是免費的!
有人說,如果我上傳一張男人的圖片,會怎么樣? 唔,我也不知道, 因為只有兩類,圖片一定會識別成其中一類,具體識別成美女或者野獸,估計要看顏值。哈哈哈。。。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/94385.html
摘要:編碼構(gòu)建模型近年來人工智能在語音識別自然語言處理計算機視覺等諸多領(lǐng)域取得了巨大成功,但人工智能要規(guī)?;逃萌匀淮嬖谝恍﹩栴}和挑戰(zhàn)。 0編碼構(gòu)建AI模型 近年來人工智能在語音識別、自然語言處理、計算機視覺等諸多領(lǐng)域取得了巨大成功,但人工智能要規(guī)模化商用仍然存在一些問題和挑戰(zhàn)。例如面包店要自動識別面包種類及數(shù)量實現(xiàn)無人結(jié)算,如調(diào)用通用圖像識別服務(wù),雖然易用,但識別準(zhǔn)確率低,無法準(zhǔn)確區(qū)分面包...
摘要:然而,盡管訓(xùn)練技術(shù)有了進步,深度學(xué)習(xí)的規(guī)模還是存在問題。這種更具擴展性的深度網(wǎng)絡(luò)使百度得以實施一種端對端的語音識別系統(tǒng),它被稱之為。研究人員試圖用分布式處理來構(gòu)建更廣泛的深度學(xué)習(xí)網(wǎng)絡(luò),以便能處理更大的數(shù)據(jù)集。 隨著理論和硬件的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為了在線服務(wù)(比如微軟的必應(yīng))的核心部件,推動著它們圖像搜索和語音識別系統(tǒng)的發(fā)展。這些公司仰賴于這項技術(shù)來驅(qū)動未來更先進的服務(wù),所以他們擴大了神...
摘要:時間永遠(yuǎn)都過得那么快,一晃從年注冊,到現(xiàn)在已經(jīng)過去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...
閱讀 1654·2023-04-26 02:11
閱讀 2996·2023-04-25 16:18
閱讀 3724·2021-09-06 15:00
閱讀 2643·2019-08-30 15:55
閱讀 1945·2019-08-30 13:20
閱讀 2062·2019-08-26 18:36
閱讀 3136·2019-08-26 11:40
閱讀 2555·2019-08-26 10:11