...如果 5 年內(nèi)我們還沒有在看過 YouTube 視頻后能說出發(fā)生了什么的東西,我會(huì)感到很失望。數(shù)年內(nèi),我們將會(huì)把深度學(xué)習(xí)安置到能夠放進(jìn)耳朵那樣的芯片上,并造出像巴別魚(《銀河系漫游指南》中出現(xiàn)的:如果你把一條巴別魚塞...
...象的領(lǐng)域成就。語(yǔ)言模型:Google的BERT在自然語(yǔ)言處理(NLP)中,語(yǔ)言模型是可以估計(jì)一組語(yǔ)言單元(通常是單詞序列)的概率分布的模型。在該領(lǐng)域有很多有趣的模型,因?yàn)樗鼈兛梢砸院艿偷某杀緲?gòu)建,并且顯著改進(jìn)了幾個(gè)NLP...
...的事情要跟上腳步- 有時(shí)會(huì)非常令人難以置信。 這就是為什么我想從數(shù)據(jù)科學(xué)從業(yè)者的角度退一步來(lái)看一下人工智能的一些關(guān)鍵領(lǐng)域的發(fā)展。這些發(fā)展都是什么?2018年領(lǐng)域內(nèi)發(fā)生了什么,2019年將會(huì)發(fā)生什么? PS:與任何預(yù)測(cè)一...
...篇科普性質(zhì)的文章,希望借助這篇文章,讓開發(fā)者了解到什么是語(yǔ)音交互,以及在 YodaOS 中的技術(shù)實(shí)現(xiàn)。不了解YodaOS是什么?點(diǎn)擊這里回顧。 作為 Web 開發(fā)者,相信在面試時(shí)常會(huì)被問到瀏覽器輸入 URL 后發(fā)生了什么這樣的經(jīng)...
...數(shù)據(jù)并不容易處理,NLP技術(shù)實(shí)施起來(lái)難度也不小,但是為什么自然語(yǔ)言數(shù)據(jù)仍然越來(lái)越得到關(guān)注,NLP技術(shù)的實(shí)施也越來(lái)越廣泛了呢? 實(shí)際上,近幾年來(lái),各企業(yè)、組織開始在業(yè)務(wù)中也越來(lái)越關(guān)注大量非結(jié)構(gòu)化數(shù)據(jù)中蘊(yùn)含的高價(jià)...
...現(xiàn),為漢字 NLP 盡一點(diǎn)綿薄之力轉(zhuǎn)-當(dāng)代中國(guó)最貴的漢字是什么?不足之處之所以有本篇,是因?yàn)樯弦淮蔚乃惴▽?shí)現(xiàn)存在一些不足。巴別塔《圣經(jīng)》中有關(guān)于巴別塔建造,最終人們因?yàn)檎Z(yǔ)言問題而停工的故事?。創(chuàng)11:6 看哪!...
...還是熱烈的會(huì)前討論中,人們都會(huì)說到這一現(xiàn)象。發(fā)生了什么?現(xiàn)在,有人擔(dān)心,SIGIR可能不會(huì)再吸引那么多的相關(guān)的論文。這一種擔(dān)心基于下面兩個(gè)觀察:第一個(gè)是,2011年提交SIGIR的論文數(shù)量達(dá)到峰值543篇,但從那之后,就一...
...數(shù),然后就不會(huì)有新的記憶了。訓(xùn)練好了之后,不管什么時(shí)候來(lái)一個(gè)相同的輸入,都會(huì)給出一個(gè)相同的輸出。對(duì)于像Image Classification這樣的問題來(lái)說沒有什么問題,但是像Speech Recognition或者很多NLP的Task,數(shù)據(jù)都是有時(shí)序或結(jié)...
...域的知名學(xué)者。 剛開始的時(shí)候,王仲遠(yuǎn)也很困惑學(xué)校為什么總是教數(shù)據(jù)結(jié)構(gòu)、操作系統(tǒng)、編譯原理、計(jì)算機(jī)組成這種基礎(chǔ)性的知識(shí),好像都不是找工作所需要的技能。孟小峰教授卻告訴他,在學(xué)校里把基本功打扎實(shí)最重要,如...
ChatGPT和Sora等AI大模型應(yīng)用,將AI大模型和算力需求的熱度不斷帶上新的臺(tái)階。哪里可以獲得...
大模型的訓(xùn)練用4090是不合適的,但推理(inference/serving)用4090不能說合適,...
圖示為GPU性能排行榜,我們可以看到所有GPU的原始相關(guān)性能圖表。同時(shí)根據(jù)訓(xùn)練、推理能力由高到低做了...