成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

ResNet告訴我,我是不是世界上最美的人?

wums / 1366人閱讀

摘要:在這里,代表照片,也就是形狀為的矩陣,是圖像被標(biāo)記的分?jǐn)?shù)。我首先使用這張照片我的分?jǐn)?shù)是,這意味著我的顏值比數(shù)據(jù)集中的人高。我拍了很多照片,最終我得到了分,這意味著我比數(shù)據(jù)集中的人更具吸引力。

什么?!顏值“客觀化”要進(jìn)行實(shí)質(zhì)性推進(jìn)了?

幾個(gè)月前,華南理工大學(xué)發(fā)布了一篇關(guān)于“顏值評(píng)估”的論文及其數(shù)據(jù)集。

這個(gè)數(shù)據(jù)集包括5500人,每人的長(zhǎng)相被從1-5分進(jìn)行打分。

數(shù)據(jù)的下載地址如下:

https://github.com/HCIILAB/SCUT-FBP5500-Database-Release

數(shù)據(jù)集中還包括一些明星。這張Julia Roberts的照片平均得分為3.78:

這張以色列著名模特Bar Refaeli的照片獲得了3.7分。

這些分?jǐn)?shù)可能看起來有點(diǎn)低,但3.7分已經(jīng)代表你的顏值比數(shù)據(jù)集中約80%的人高了。

在這個(gè)數(shù)據(jù)集上,作者訓(xùn)練了多個(gè)模型,試圖根據(jù)人臉圖片評(píng)估顏值。

在這篇文章中,我要復(fù)現(xiàn)他們的結(jié)果,并測(cè)一下自己的顏值。

原始論文構(gòu)造了一系列不同的模型,包括使用人工構(gòu)造特征的經(jīng)典ML模型和3種深度學(xué)習(xí)模型:AlexNet、ResNet18和ResNext50,我希望盡可能簡(jiǎn)化我的工作(我不想從頭開始訓(xùn)練Resnet神經(jīng)網(wǎng)絡(luò)模型),我想對(duì)現(xiàn)有的模型進(jìn)行調(diào)優(yōu)。在keras中,有一個(gè)稱為application的模塊,它包含各種不同的預(yù)訓(xùn)練過的模型。resnet50就是其中之一。 不幸的是,在keras.applications中沒有ResNet18或ResNext50,所以我不能完全復(fù)現(xiàn)研究人員之前的研究過程,不過利用resnet50也能足夠接近之前的工作。

from keras.applications import ResNet50

ResNet是一個(gè)由微軟開發(fā)的深度卷積網(wǎng)絡(luò),它贏得了2015 年的ImageNet圖像分類任務(wù)競(jìng)賽。

在keras中,當(dāng)我們初始化resnet50模型時(shí),我們創(chuàng)建了一個(gè)ResNet50結(jié)構(gòu)的模型,并且下載了在ImageNet數(shù)據(jù)集上訓(xùn)練的權(quán)重。

論文的作者沒并有提到他們究竟是如何訓(xùn)練模型的,不過我會(huì)盡力做到較好。

我想刪除最后一層(“softmax”層)并添加一個(gè)沒有激活函數(shù)的全連接層來做回歸。

resnet = ResNet50(include_top=False, pooling=’avg’)

model = Sequential()

model.add(resnet)

model.add(Dense(1))

model.layers[0].trainable = False

print model.summary()

# Output:

? Layer (type) ? ? ? ? ? ? ? ? Output Shape ? ? ? ? ? ? ?Param # ? ?================================================================= resnet50 (Model) ? ? ? ? ? ? (None, 2048) ? ? ? ? ? ? ?23587712 ? _________________________________________________________________ dense_1 (Dense) ? ? ? ? ? ? ?(None, 1) ? ? ? ? ? ? ? ? 2049 ? ? ? ================================================================= Total params: 23,589,761?

Trainable params: 23,536,641?

Non-trainable params: 53,120

你可以看到我把第一層(resnet模型)設(shè)置為不可訓(xùn)練的,所以我只有2049個(gè)可訓(xùn)練的參數(shù),而不是23589761個(gè)參數(shù)。

我的計(jì)劃是訓(xùn)練最后的全連接層,然后以較小的學(xué)習(xí)率訓(xùn)練整個(gè)網(wǎng)絡(luò)。

model.compile(loss="mean_squared_error", optimizer=Adam())

model.fit(batch_size=32, x=train_X, y=train_Y, epochs=30)

之后,我將第一層改為可訓(xùn)練的,編譯模型,并再把模型訓(xùn)練30輪。

在這里,train_X代表照片,也就是形狀為(350,350,3)的numpy矩陣,train_Y是圖像被標(biāo)記的分?jǐn)?shù)。

結(jié)論

論文使用2種方法訓(xùn)練模型:5折交叉驗(yàn)證和以6:4的比例將數(shù)據(jù)集分割為訓(xùn)練集和測(cè)試集。他們使用皮爾遜相關(guān)系數(shù)(PC),平均誤差(MAE)和均方根誤差(RMSE)來測(cè)評(píng)估模型的結(jié)果。以下是他們使用5折交叉驗(yàn)證得到的結(jié)果:

這些是他們使用6:4分割數(shù)據(jù)集獲得的結(jié)果:

我以8:2的比例分割數(shù)據(jù)集,所以它類似于執(zhí)行1折交叉驗(yàn)證。

我得到的結(jié)果如下:

非常好的結(jié)果。另外,也可以看看散點(diǎn)圖和直方圖:

原始分?jǐn)?shù)分布(標(biāo)準(zhǔn)化后的):

預(yù)測(cè)分?jǐn)?shù)分布(標(biāo)準(zhǔn)化后的):

結(jié)果看起來不錯(cuò)?,F(xiàn)在在我身上試試這個(gè)這個(gè)神經(jīng)網(wǎng)絡(luò)。我首先使用這張照片:

我的分?jǐn)?shù)是2.85,這意味著我的顏值比數(shù)據(jù)集中52%的人高。不得不說我有點(diǎn)失望,我以為我的分?jǐn)?shù)會(huì)高一些,所以我試圖提高我的分?jǐn)?shù)。

我拍了很多照片,最終我得到了3.15分,這意味著我比數(shù)據(jù)集中64%的人更具吸引力。

這比之前好很多了,不過我必須誠實(shí)地說,我希望還能更高:)

最后一點(diǎn),我使用Google Colaboratory構(gòu)建和調(diào)整了這個(gè)模型,簡(jiǎn)而言之,Google Colaboratory能為你提供一個(gè)免費(fèi)使用GPU的python notebook!

原文鏈接:

https://towardsdatascience.com/how-attractive-are-you-in-the-eyes-of-deep-neural-network-3d71c0755ccc

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4768.html

相關(guān)文章

  • 個(gè)人博客全新UI:心中你最美

    摘要:那個(gè)月就是對(duì)著和的文檔寫出來了網(wǎng)站的前后端,也是第一次買服務(wù)器備案網(wǎng)站做反向代理讀文檔學(xué)做,懷念那些時(shí)光,讓現(xiàn)在的網(wǎng)站有了基礎(chǔ)。因此,管理系統(tǒng)聽歌臺(tái)被抽離成了單獨(dú)的應(yīng)用,后臺(tái)利用做反向代理,用二級(jí)域名記性訪問。 不知道你是否也有想過完全用自己的代碼實(shí)現(xiàn)自己的個(gè)人博客?定制專屬 UI、定制專屬邏輯、在信息爆炸的時(shí)代真正地沉淀下屬于自己的東西。我也曾經(jīng)歷了同樣的糾結(jié),最終下定決心做了自己的...

    oliverhuang 評(píng)論0 收藏0
  • 七夕秀恩愛新姿勢(shì)!這波操作給十分!

    摘要:四結(jié)語七夕已至,快和親愛的人綁定最美戀愛關(guān)系吧在這里,你們就是導(dǎo)演,記錄美好愛情。特別說明此小程序,是我親手為女朋友寫的,感謝她提供需求支持,七夕快樂。 showImg(https://segmentfault.com/img/remote/1460000020001501?w=779&h=203); 一、前言 像每一滴酒回不了最初的葡萄,我回不到年少。愛情亦是如此,這就是寫一篇小程序...

    imingyu 評(píng)論0 收藏0
  • 24分鐘完成ImageNet訓(xùn)練,刷新世界紀(jì)錄

    摘要:本圖中的數(shù)據(jù)收集自利用數(shù)據(jù)集在英偉達(dá)上對(duì)進(jìn)行訓(xùn)練的實(shí)際流程。據(jù)我所知,人們之前還無法有效利用諸如神威太湖之光的超級(jí)計(jì)算機(jī)完成神經(jīng)網(wǎng)絡(luò)訓(xùn)練。最終,我們用分鐘完成了的訓(xùn)練據(jù)我們所知,這是使用進(jìn)行訓(xùn)練的世界最快紀(jì)錄。 圖 1,Google Brain 科學(xué)家 Jonathan Hseu 闡述加速神經(jīng)網(wǎng)絡(luò)訓(xùn)練的重要意義近年來,深度學(xué)習(xí)的一個(gè)瓶頸主要體現(xiàn)在計(jì)算上。比如,在一個(gè)英偉達(dá)的 M40 GPU ...

    Soarkey 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<