摘要:年后的你長(zhǎng)什么樣北京航空航天大學(xué)和密歇根州立大學(xué)的研究人員設(shè)計(jì)了一個(gè)系統(tǒng),采用生成對(duì)抗網(wǎng)絡(luò),可以根據(jù)原始照片生成一個(gè)人年齡增長(zhǎng)后的樣子,甚至連發(fā)際線逐漸后移也能逼真地模擬。
20年后的你長(zhǎng)什么樣?北京航空航天大學(xué)和密歇根州立大學(xué)的研究人員設(shè)計(jì)了一個(gè)AI系統(tǒng),采用生成對(duì)抗網(wǎng)絡(luò)(GAN),可以根據(jù)原始照片生成一個(gè)人年齡增長(zhǎng)后的樣子,甚至連發(fā)際線逐漸后移也能逼真地模擬。論文發(fā)表在CVPR 2018。
論文:https://arxiv.org/pdf/1711.10352.pdf
警方要搜尋一個(gè)失蹤多年的人或逃犯時(shí),有時(shí)候線索只有一張舊照片。藝術(shù)家或計(jì)算機(jī)程序可以嘗試根據(jù)舊照片推測(cè)這些人今天的樣子,但這兩種方法都有缺陷?,F(xiàn)在,科學(xué)家們已經(jīng)能夠利用AI來渲染照片中的人年老后的樣子,其結(jié)果比以往的方法更加逼真。
來自北京航空航天大學(xué)和密歇根州立大學(xué)的研究人員設(shè)計(jì)了這樣一個(gè)系統(tǒng)。該系統(tǒng)采用一種由兩個(gè)部分組成的算法,即生成對(duì)抗網(wǎng)絡(luò)(GAN)。第一部分以一張臉的照片作為輸入,并生成目標(biāo)年齡的同一個(gè)人年齡增長(zhǎng)后的臉。在訓(xùn)練過程中,第二部分將生成的圖像與該年齡的人的真實(shí)圖像和原始圖像進(jìn)行對(duì)比,并提供反饋,以令第一部分改進(jìn)生成圖像的效果。
圖1:年齡增長(zhǎng)(ageing)的模擬結(jié)果(第1列是輸入的圖像)。
其他這類系統(tǒng)也有使用GAN的, 但這個(gè)系統(tǒng)的不同之處在于它不僅關(guān)注年齡的正確性,還關(guān)注保持特定人的身份。與其他系統(tǒng)不同的是,它還能渲染前額和發(fā)際線逐漸升高的樣子,如上圖演示的結(jié)果。
圖2:提出的年齡增長(zhǎng)方法的框架。
在這個(gè)框架中,一個(gè)基于CNN的生成器G學(xué)習(xí)年齡變化(age transformation)。訓(xùn)練中的critic在圖像空間加入平方歐幾里得損失,GAN loss鼓勵(lì)生成的人臉與訓(xùn)練中相應(yīng)年齡的老年人的臉無法區(qū)分,以及 identity preservation loss使高級(jí)特征表示的輸入輸出距離最小化。
這個(gè)研究的主要貢獻(xiàn)如下:
提出了一種新的基于GAN的年齡發(fā)展方法,該方法結(jié)合了人臉驗(yàn)證和年齡估計(jì)技術(shù),從而解決了衰老效果生成和身份線索保存的問題。
強(qiáng)調(diào)了前額和頭發(fā)的重要性,這與我們認(rèn)知的年齡增長(zhǎng)現(xiàn)象密切相關(guān),但在其他研究中被忽略了;這確實(shí)提高了所生成的衰老照片的精度。
除了現(xiàn)有的實(shí)驗(yàn)外,研究者還設(shè)置了新的驗(yàn)證實(shí)驗(yàn),包括基于商業(yè)化的面部分析工具的評(píng)估以及對(duì)表情、姿勢(shì)和化妝變化的不敏感性評(píng)估。該方法不僅被證明有效,而且對(duì)于年齡增長(zhǎng)也具有穩(wěn)健性。
24個(gè)不同的受試者在CACD數(shù)據(jù)庫上獲得的老化效果(Aging effects)。每個(gè)部分的第一個(gè)圖像是原始的人臉圖像,隨后的3個(gè)圖像是該受試者在[31- 40]、[41-50]和50+年齡組的變老圖像。
圖:24個(gè)不不同的受試者在MORPH數(shù)據(jù)庫獲得的老化效果。
研究人員在來自兩個(gè)數(shù)據(jù)庫的10萬張圖像上訓(xùn)練了他們的AI,這些數(shù)據(jù)庫中包括不同年齡的警方存檔的面部照片和名人照片。然后,研究者用一個(gè)獨(dú)立的計(jì)算機(jī)程序判斷AI在一組新圖像上的表現(xiàn)。舉例來說,當(dāng)AI將人的照片老化20年以上時(shí),原本30歲以下的人看起來應(yīng)該在50歲至60歲之間,計(jì)算機(jī)程序?qū)⑺麄儯ㄆ骄┮暈?0歲(面部照片)或52歲(名人照片)。
圖:與先前工作的對(duì)比
在進(jìn)一步的統(tǒng)計(jì)調(diào)查中,研究人員從已發(fā)表的論文中收集了54個(gè)人的138張配對(duì)的照片,并邀請(qǐng)10位人類觀察者來評(píng)估哪張年齡增長(zhǎng)的臉更好。在1380票中,69.78%投給了我們的工作,20.80%投給了以前的工作,9.42%表示兩者不分上下。此外,該方法不需要像以前的工作那樣進(jìn)行繁瑣的預(yù)處理,只需要兩個(gè)標(biāo)志點(diǎn)用于瞳孔對(duì)齊??偠灾?,研究者稱他們提出的方法優(yōu)于以前的方法。
相關(guān)論文發(fā)表在本月的CVPR 2018會(huì)議上。
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4799.html
摘要:通過生成高質(zhì)量的行人圖像,將其與行人重識(shí)別模型融合,同時(shí)提升行人生成的質(zhì)量和行人重識(shí)別的精度。若使用這些低質(zhì)量的行人生成圖像來訓(xùn)練行人重識(shí)別模型,會(huì)引入與原始數(shù)據(jù)集之間的差異。首次提出了利用生成的圖像輔助行人重識(shí)別的特征學(xué)習(xí)。 前幾天英偉達(dá)開源了DG-Net的源碼。讓我們來回顧一下這篇CVPR19 Oral的論文。 論文是英偉達(dá)(NVIDIA), 悉尼科技大學(xué)(UTS), 澳大利亞國(guó)立...
摘要:元旦假期即將來臨,我們精心準(zhǔn)備了這本阿里巴巴機(jī)器智能計(jì)算機(jī)視覺技術(shù)精選,收錄了頂級(jí)會(huì)議阿里論文,送給計(jì)劃在假期充電的同學(xué)們,也希望能和更多學(xué)術(shù)界工業(yè)界同仁一起探討交流。 當(dāng)下計(jì)算機(jī)視覺技術(shù)無疑是AI浪潮中最火熱的議題之一。視覺技術(shù)的滲透,既可以對(duì)傳統(tǒng)商業(yè)進(jìn)行改造使之看到新的商業(yè)機(jī)會(huì),還可以創(chuàng)造全新的商業(yè)需求和市場(chǎng)。無論在電商、安防、娛樂,還是在工業(yè)、醫(yī)療、自動(dòng)駕駛領(lǐng)域,計(jì)算機(jī)視覺技術(shù)都...
摘要:但年在機(jī)器學(xué)習(xí)的較高級(jí)大會(huì)上,蘋果團(tuán)隊(duì)的負(fù)責(zé)人宣布,公司已經(jīng)允許自己的研發(fā)人員對(duì)外公布論文成果。蘋果第一篇論文一經(jīng)投放,便在年月日,斬獲較佳論文。這項(xiàng)技術(shù)由的和開發(fā),使用了生成對(duì)抗網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)方法。 GANs「對(duì)抗生成網(wǎng)絡(luò)之父」Ian Goodfellow 在 ICCV 2017 上的 tutorial 演講是聊他的代表作生成對(duì)抗網(wǎng)絡(luò)(GAN/Generative Adversarial ...
摘要:所以,我們美團(tuán)外賣技術(shù)團(tuán)隊(duì)嘗試結(jié)合技術(shù),來協(xié)助設(shè)計(jì)師避免這種低收益高重復(fù)的任務(wù),同時(shí)低成本高效率高質(zhì)量地完成海報(bào)圖片的生成。圖封面配色布局設(shè)計(jì)在設(shè)計(jì)領(lǐng)域的一些子問題上,可以用算法來挖掘出數(shù)據(jù)背后的規(guī)律如圖所示。 背景 在視覺設(shè)計(jì)領(lǐng)域中,設(shè)計(jì)師們往往會(huì)因?yàn)橐恍┖?jiǎn)單需求付出相當(dāng)多的時(shí)間,比如修改文案內(nèi)容,設(shè)計(jì)簡(jiǎn)單的海報(bào)版式,針對(duì)不同機(jī)型、展位的多尺寸拓展等。這些工作需要耗費(fèi)大量的時(shí)間、人力...
摘要:在過去幾年中,深度學(xué)習(xí)改變了整個(gè)人工智能的發(fā)展。在本文中,我將介紹年深度學(xué)習(xí)的一些主要進(jìn)展,與年深度學(xué)習(xí)進(jìn)展版本一樣,我沒有辦法進(jìn)行詳盡的審查。最后的想法與去年的情況一樣,年深度學(xué)習(xí)技術(shù)的使用持續(xù)增加。 在過去幾年中,深度學(xué)習(xí)改變了整個(gè)人工智能的發(fā)展。深度學(xué)習(xí)技術(shù)已經(jīng)開始在醫(yī)療保健,金融,人力資源,零售,地震檢測(cè)和自動(dòng)駕駛汽車等領(lǐng)域的應(yīng)用程序中出現(xiàn)。至于現(xiàn)有的成果表現(xiàn)也一直在穩(wěn)步提高。在學(xué)術(shù)...
閱讀 3734·2021-09-07 10:19
閱讀 3666·2021-09-03 10:42
閱讀 3608·2021-09-03 10:28
閱讀 2579·2019-08-29 14:11
閱讀 839·2019-08-29 13:54
閱讀 1625·2019-08-29 12:14
閱讀 448·2019-08-26 12:12
閱讀 3650·2019-08-26 10:45