摘要:年月日,機(jī)器之心曾經(jīng)推出文章為你的深度學(xué)習(xí)任務(wù)挑選最合適從性能到價(jià)格的全方位指南。如果你想要學(xué)習(xí)深度學(xué)習(xí),這也具有心理上的重要性。如果你想快速學(xué)習(xí)深度學(xué)習(xí),多個(gè)廉價(jià)的也很好。目前還沒有適合顯卡的深度學(xué)習(xí)庫所以,只能選擇英偉達(dá)了。
文章作者 Tim Dettmers 系瑞士盧加諾大學(xué)信息學(xué)碩士,熱衷于開發(fā)自己的 GPU 集群和算法來加速深度學(xué)習(xí)。這篇博文最早版本發(fā)布于 2014 年 8 月,之后隨著相關(guān)技術(shù)的發(fā)展和硬件的更新,Dettmers 也在不斷對(duì)本文進(jìn)行修正。2016 年 7 月 18 日,機(jī)器之心曾經(jīng)推出文章為你的深度學(xué)習(xí)任務(wù)挑選最合適 GPU:從性能到價(jià)格的全方位指南 。當(dāng)時(shí),機(jī)器之心呈現(xiàn)的文章是其 2016 年 6 月 25 日的更新(之前已經(jīng)有五次更新)。接著,2016 年 7 月 23 日以及 2017 年 3 月 19 日,作者又分別根據(jù)硬件發(fā)展情況兩度更新博文:2016 年 7 月 23 日主要添加了 Titan X Pascal 以及 GTX 1060 并更新了相應(yīng)推薦;2017 年 3 月 19 日添加了 GTX 1080 Ti 并對(duì)博客進(jìn)行了較大調(diào)整。本文依據(jù)的是 3 月 19 日更新后的版本。另外,除了 GPU 之外,深度學(xué)習(xí)還需要其它一些硬件基礎(chǔ),詳情可參閱機(jī)器之心之前的文章《深度 | 史上最全面的深度學(xué)習(xí)硬件指南》。
深度學(xué)習(xí)是一個(gè)計(jì)算密集型領(lǐng)域,而 GPU 的選擇將從根本上決定你的深度學(xué)習(xí)實(shí)驗(yàn)。沒有 GPU,一個(gè)實(shí)驗(yàn)也許花費(fèi)數(shù)月才能完成,或者實(shí)驗(yàn)運(yùn)行一天卻只關(guān)閉了被選擇的參數(shù);而一個(gè)良好穩(wěn)定的 GPU 可讓你在深度學(xué)習(xí)網(wǎng)絡(luò)中快速迭代,在數(shù)天、數(shù)小時(shí)、數(shù)分鐘內(nèi)完成實(shí)驗(yàn),而不是數(shù)月、數(shù)天、數(shù)小時(shí)。所以,購買 GPU 時(shí)正確的選擇很關(guān)鍵。那么,如何選擇一個(gè)適合你的 GPU 呢?這正是本篇博文探討的問題,幫助你做出正確選擇。
對(duì)于深度學(xué)習(xí)初學(xué)者來說,擁有一個(gè)快速 GPU 非常重要,因?yàn)樗梢允鼓阊杆佾@得有助于構(gòu)建專業(yè)知識(shí)的實(shí)踐經(jīng)驗(yàn),這些專業(yè)知識(shí)可以幫助你將深度學(xué)習(xí)應(yīng)用到新問題上。沒有這種迅速反饋,從錯(cuò)誤中汲取經(jīng)驗(yàn)將會(huì)花費(fèi)太多時(shí)間,在繼續(xù)深度學(xué)習(xí)過程中也會(huì)感到受挫和沮喪。在 GPU 的幫助下,我很快就學(xué)會(huì)了如何在一系列 Kaggle 競賽中應(yīng)用深度學(xué)習(xí),并且在 Partly Sunny with a Chance of Hashtags Kaggle 競賽上獲得了第二名,競賽內(nèi)容是通過一個(gè)給定推文預(yù)測氣象評(píng)分。比賽中,我使用了一個(gè)相當(dāng)大的兩層深度神經(jīng)網(wǎng)絡(luò)(帶有兩個(gè)修正線性單元和 dropout,用于正則化),差點(diǎn)就沒辦法把這個(gè)深度網(wǎng)絡(luò)塞進(jìn)我的 6G GPU 內(nèi)存。
應(yīng)該使用多個(gè) GPU 嗎?
在 GPU 的幫助下,深度學(xué)習(xí)可以完成很多事情,這讓我感到興奮。我投身到多 GPU 的領(lǐng)域之中,用 InfiniBand 40Gbit/s 互連組裝了小型 GPU 集群。我瘋狂地想要知道多個(gè) GPU 能否獲得更好的結(jié)果。我很快發(fā)現(xiàn),不僅很難在多個(gè) GPU 上并行神經(jīng)網(wǎng)絡(luò)。而且對(duì)普通的密集神經(jīng)網(wǎng)絡(luò)來說,加速效果也很一般。小型神經(jīng)網(wǎng)絡(luò)可以并行并且有效地利用數(shù)據(jù)并行性,但對(duì)于大一點(diǎn)的神經(jīng)網(wǎng)絡(luò)來說,例如我在 Partly Sunny with a Chance of Hashtags Kaggle 比賽中使用的,幾乎沒有加速效果。
隨后,我進(jìn)一步試驗(yàn),對(duì)比 32 位方法,我開發(fā)了帶有模型并行性的新型 8 位壓縮技術(shù),該技術(shù)能更有效地并行處理密集或全連接神經(jīng)網(wǎng)絡(luò)層。
然而,我也發(fā)現(xiàn),并行化也會(huì)讓人沮喪得發(fā)狂。針對(duì)一系列問題,我天真地優(yōu)化了并行算法,結(jié)果發(fā)現(xiàn):考慮到你投入的精力,即使使用優(yōu)化過的自定義代碼,多個(gè) GPU 上的并行注意的效果也并不好。你需要非常留意你的硬件及其與深度學(xué)習(xí)算法交互的方式,這樣你一開始就能衡量你是否可以受益于并行化。
我的計(jì)算機(jī)主機(jī)設(shè)置:你可以看到 3 個(gè) GXT Titan 和一個(gè) InfiniBand 卡。對(duì)于深度學(xué)習(xí)來說,這是一個(gè)好的設(shè)置嗎?
自那時(shí)起,GPU 的并行性支持越來越普遍,但距離全面可用和有效還差的很遠(yuǎn)。目前,在 GPU 和計(jì)算機(jī)中實(shí)現(xiàn)有效算法的深度學(xué)習(xí)庫是 CNTK,它使用微軟的 1 比特量子化(有效)和 block momentum(很有效)的特殊并行化算法。通過 CNTK 和一個(gè)包含 96 塊 GPU 的聚類,你可以擁有一個(gè)大約 90x-95x 的新線性速度。Pytorch 也許是跨機(jī)器支持有效并行化的庫,但是,庫目前還不存在。如果你想要在一臺(tái)機(jī)器上做并行,那么,CNTK、Torch 和 Pytorch 是你的主要選擇,這些庫具備良好的加速(3.6x-3.8x),并在一臺(tái)包含 4 至 8 塊 GPU 的機(jī)器之中預(yù)定義了并行化算法。也有其他支持并行化的庫,但它們不是慢(比如 2x-3x 的 TensorFlow)就是難于用于多 GPU (Theano),或者兼而有之。
如果你重視并行,我建議你使用 Pytorch 或 CNTK。
使用多 GPU 而無并行
使用多 GPU 的另外一個(gè)好處是:即使沒有并行算法,你也可以分別在每個(gè) GPU 上運(yùn)行多個(gè)算法或?qū)嶒?yàn)。速度沒有變快,但是你能一次性通過使用不同算法或參數(shù)得到更多關(guān)于性能信息。如果你的主要目標(biāo)是盡快獲得深度學(xué)習(xí)經(jīng)驗(yàn),這是非常有用的,而且對(duì)于想同時(shí)嘗試新算法不同版本的研究人員來說,這也非常有用。
如果你想要學(xué)習(xí)深度學(xué)習(xí),這也具有心理上的重要性。執(zhí)行任務(wù)的間隔以及得到反饋信息的時(shí)間越短,大腦越能將相關(guān)記憶片段整合成連貫畫面。如果你在小數(shù)據(jù)集上使用獨(dú)立的 GPU 訓(xùn)練兩個(gè)卷積網(wǎng)絡(luò),你就能更快地知道什么對(duì)于性能優(yōu)良來說是重要的;你將更容易地檢測到交叉驗(yàn)證誤差中的模式并正確地解釋它們。你也會(huì)發(fā)現(xiàn)暗示需要添加、移除或調(diào)整哪些參數(shù)與層的模式。
所以總體而言,幾乎對(duì)于所有任務(wù)來說,一個(gè) GPU 已經(jīng)足夠了,但是加速深度學(xué)習(xí)模型,多個(gè) GPU 會(huì)變得越來越重要。如果你想快速學(xué)習(xí)深度學(xué)習(xí),多個(gè)廉價(jià)的 GPU 也很好。我個(gè)人寧愿使用多個(gè)小的 GPU,而不是一個(gè)大的 GPU,即使是出于研究實(shí)驗(yàn)的沒目的。
那么,我該選擇哪類加速器呢?英偉達(dá) GPU、AMD GUP 還是英特爾的 Xeon Phi?
英偉達(dá)的標(biāo)準(zhǔn)庫使得在 CUDA 中建立第一個(gè)深度學(xué)習(xí)庫很容易,但沒有適合 AMD 的 OpenCL 那樣強(qiáng)大的標(biāo)準(zhǔn)庫。目前還沒有適合 AMD 顯卡的深度學(xué)習(xí)庫——所以,只能選擇英偉達(dá)了。即使未來一些 OpenCL 庫可用,我仍會(huì)堅(jiān)持使用英偉達(dá):因?yàn)閷?duì)于 CUDA 來說,GPU 計(jì)算或者 GPGPU 社區(qū)是很大的,對(duì)于 OpenCL 來說,則相對(duì)較小。因此,在 CUDA 社區(qū),有現(xiàn)成的好的開源解決方案和為編程提供可靠建議。
此外,英偉達(dá)現(xiàn)在為深度學(xué)習(xí)賭上一切,即使深度學(xué)習(xí)還只是處于嬰兒期。押注獲得了回報(bào)。盡管現(xiàn)在其他公司也往深度學(xué)習(xí)投入了錢和精力,但由于開始的晚,目前依然很落后。目前,除了 NVIDIA-CUDA,其他任何用于深度學(xué)習(xí)的軟硬結(jié)合的選擇都會(huì)讓你受挫。
至于英特爾的 Xeon Phi,廣告宣稱你能夠使用標(biāo)準(zhǔn) C 代碼,還能將代碼輕松轉(zhuǎn)換成加速過的 Xeon Phi 代碼。聽起來很有趣,因?yàn)槟憧赡苷J(rèn)為可以依靠龐大的 C 代碼資源。但事實(shí)上,其只支持非常一小部分 C 代碼,因此,這一功能并不真正有用,大部分 C 運(yùn)行起來會(huì)很慢。
我曾研究過 500 多個(gè) Xeon Phi 集群,遭遇了無止盡的挫折。我不能運(yùn)行我的單元測試(unit test),因?yàn)?Xeon Phi 的 MKL(數(shù)學(xué)核心函數(shù)庫)并不兼容 NumPy;我不得不重寫大部分代碼,因?yàn)橛⑻貭?Xeon Phi 編譯器無法讓模板做出適當(dāng)約簡。例如,switch 語句,我不得不改變我的 C 接口,因?yàn)橛⑻貭?Xeon Phi 編譯器不支持 C++ 11 的一些特性。這一切迫使你在沒有單元測試的情況下來執(zhí)行代碼的重構(gòu),實(shí)在讓人沮喪。這花了很長時(shí)間。真是地獄啊。
隨后,執(zhí)行我的代碼時(shí),一切都運(yùn)行得很慢。是有 bug(?)或者僅僅是線程調(diào)度器(thread scheduler)里的問題?如果作為運(yùn)行基礎(chǔ)的向量大小連續(xù)變化,哪個(gè)問題會(huì)影響性能表現(xiàn)?比如,如果你有大小不同的全連接層,或者 dropout 層,Xeon Phi 會(huì)比 CPU 還慢。我在一個(gè)獨(dú)立的矩陣乘法(matrix-matrix multiplication)實(shí)例中復(fù)制了這一行為,并把它發(fā)給了英特爾,但從沒收到回信。所以,如果你想做深度學(xué)習(xí),遠(yuǎn)離 Xeon Phi!
給定預(yù)算下的最快 GPU
你的第一個(gè)問題也許是:用于深度學(xué)習(xí)的快速 GPU 性能的最重要特征是什么?是 cuda 內(nèi)核、時(shí)鐘速度還是 RAM 的大???
以上都不是。最重要的特征是內(nèi)存帶寬。
簡言之,GPU 通過犧牲內(nèi)存訪問時(shí)間(延遲)而優(yōu)化了內(nèi)存帶寬; 而 CPU 的設(shè)計(jì)恰恰相反。如果只占用了少量內(nèi)存,例如幾個(gè)數(shù)相乘(3*6*9),CPU 可以做快速計(jì)算,但是,對(duì)于像矩陣相乘(A*B*C)這樣占用大量內(nèi)存的操作,CPU 運(yùn)行很慢。由于其內(nèi)存帶寬,GPU 擅長處理占用大量內(nèi)存的問題。當(dāng)然 GPU 和 CPU 之間還存在其他更復(fù)雜的差異。
如果你想購買一個(gè)快速 GPU,第一等重要的就是看看它的帶寬。
根據(jù)內(nèi)存帶寬評(píng)估 GPU
隨著時(shí)間的推移,比較 CPU 以及 GPU 的帶寬。為什么 GPU 計(jì)算速度會(huì)比 CPU 快?主要原因之一就是帶寬。
帶寬可直接在一個(gè)架構(gòu)內(nèi)進(jìn)行比較,例如, 比較 Pascal 顯卡 GTX 1080 與 GTX 1070 的性能;也可通過只查看其內(nèi)存帶寬而直接比較。例如,GTX 1080 (320GB/s) 大約比 GTX 1070 (256 GB/s) 快 25%。然而, 在多個(gè)架構(gòu)之間,例如 Pascal 對(duì)于 Maxwell 就像 GTX 1080 對(duì)于 GTX Titan X 一樣,不能進(jìn)行直接比較,因?yàn)榧庸み^程不同的架構(gòu)使用了不同的給定內(nèi)存帶寬。這一切看起來有點(diǎn)狡猾,但是,只看總帶寬就可對(duì) GPU 的大致速度有一個(gè)很好的全局了解。在給定預(yù)算的情況下選擇一塊最快的 GPU,你可以使用這一維基百科頁面(List of Nvidia graphics processing units),查看 GB/s 中的帶寬;對(duì)于更新的顯卡(900 和 1000 系列)來說,列表中的價(jià)格相當(dāng)較精確,但是,老舊的顯卡相比于列舉的價(jià)格會(huì)便宜很多,尤其是在 eBay 上購買這些顯卡時(shí)。例如,一個(gè)普通的 GTX Titan X 在 eBay 上的價(jià)格大約是 550 美元。
然而,另一個(gè)需要考慮的重要因素是,并非所有架構(gòu)都與 cuDNN 兼容。由于幾乎所有的深度學(xué)習(xí)庫都使用 cuDNN 做卷積運(yùn)算,這就限制了對(duì)于 Kepler GPU 或更好 GPU 的選擇,即 GTX 600 系列或以上版本。最主要的是 Kepler GPU 通常會(huì)很慢。因此這意味著你應(yīng)該選擇 900 或 1000 系列 GPU 來獲得好的性能。
為了大致搞清楚深度學(xué)習(xí)任務(wù)中的顯卡性能比較情況,我創(chuàng)建了一個(gè)簡單的 GPU 等價(jià)表。如何閱讀它呢?例如,GTX 980 的速度相當(dāng)于 0.35 個(gè) Titan X Pascal,或是 Titan X Pascal 的速度幾乎三倍快于 GTX 980。
請(qǐng)注意我沒有所有這些顯卡,也沒有在所有這些顯卡上跑過深度學(xué)習(xí)基準(zhǔn)。這些對(duì)比源于顯卡規(guī)格以及計(jì)算基準(zhǔn)(有些加密貨幣挖掘任務(wù)需要比肩深度學(xué)習(xí)的計(jì)算能力)的比較。因此只是粗略的比較。真實(shí)數(shù)字會(huì)有點(diǎn)區(qū)別,但是一般說來,誤差會(huì)是最小的,顯卡的排序也沒問題。
也請(qǐng)注意,沒有充分利用 GPU 的小型網(wǎng)絡(luò)會(huì)讓更大 GPU 看起來不那么帥。比如,一個(gè) GTX 1080 Ti 上的小型 LSTM(128 個(gè)隱藏單元;batch 大小大于 64)不會(huì)比在 GTX 1070 上運(yùn)行速度明顯快很多。為了實(shí)現(xiàn)表格中的性能差異,你需要運(yùn)行更大的網(wǎng)絡(luò),比如 帶有 1024 個(gè)隱藏單元(而且 batch 大小大于 64)的 LSTM。當(dāng)選擇適合自己的 GPU 時(shí),記住這一點(diǎn)很重要。
粗略的比較用于大型深度學(xué)習(xí)網(wǎng)絡(luò) 的 GPU 性能。
總的來說,我會(huì)推薦 GTX 1080 Ti 或者 GTX 1070。它們都是優(yōu)秀的顯卡,如果你有錢買得起 GTX 1080 Ti 那么就入手吧。GTX 1070 更加便宜點(diǎn),但是仍然比普通的 GTX Titan X (Maxwell) 要快一些。較之 GTX 980 Ti,這兩者都是更佳選擇,考慮到增加的 11 G 以及 8G 的內(nèi)存(而不是 6G)。
8G 的內(nèi)存看起來有點(diǎn)小,但是對(duì)于許多任務(wù)來說,綽綽有余。比如,Kaggle 比賽,很多圖像數(shù)據(jù)集、深度風(fēng)格以及自然語言理解任務(wù)上,你遇到的麻煩會(huì)少很多。
GTX 1060 是較好的入門 GPU,如果你是首次嘗試深度學(xué)習(xí)或者有時(shí)想要使用它來參加 Kaggle 比賽。我不會(huì)推薦 GTX 1060 帶有 3G 內(nèi)存的變體產(chǎn)品,既然其他 6G 內(nèi)存產(chǎn)品的能力已經(jīng)十分有限了。不過,對(duì)于很多應(yīng)用來說,6G 內(nèi)存足夠了。GTX 1060 要比普通版本的 Titan X 慢一些,但是,在性能和價(jià)格方面(eBay 上)都可比肩 GTX980。
如果要說物有所值呢,10 系列設(shè)計(jì)真的很贊。GTX 1060、GTX 1070 和 GTX 1080 Ti 上都很出色。GTX 1060 適合初學(xué)者,GTX 1070 是某些產(chǎn)業(yè)和研究部門以及創(chuàng)業(yè)公司的好選擇,GTX 1080 Ti 通殺高端選擇。
一般說來,我不會(huì)推薦英偉達(dá) Titan X (Pascal),就其性能而言,價(jià)格死貴了。繼續(xù)使用 GTX 1080 Ti 吧。不過,英偉達(dá) Titan X (Pascal) 在計(jì)算機(jī)視覺研究人員當(dāng)中,還是有它的地位的,這些研究人員通常要研究大型數(shù)據(jù)集或者視頻集。在這些領(lǐng)域里,每 1G 內(nèi)存都不會(huì)浪費(fèi),英偉達(dá) Titan X 比 GTX 1080 Ti 多 1G 的內(nèi)存也會(huì)帶來更多的處理優(yōu)勢。不過,就物有所值而言,這里推薦 eBay 上的 GTX Titan X(Maxwell)——有點(diǎn)慢,不過 12G 的內(nèi)存哦。
不過,絕大多數(shù)研究人員使用 GTX 1080 Ti 就可以了。對(duì)于絕大多數(shù)研究和應(yīng)用來說,額外 1G 內(nèi)存其實(shí)是不必要的。
我個(gè)人會(huì)使用多個(gè) GTX 1070 進(jìn)行研究。我寧可多跑幾個(gè)測試,哪怕速度比僅跑一個(gè)測試(這樣速度會(huì)快些)慢一些。在自然語言處理任務(wù)中,內(nèi)存限制并不像計(jì)算機(jī)視覺研究中那么明顯。因此,GTX 1070 就夠用了。我的研究任務(wù)以及運(yùn)行實(shí)驗(yàn)的方式?jīng)Q定了最適合我的選擇就是 GTX 1070。
當(dāng)你挑選自己的 GPU 時(shí),也應(yīng)該如法炮制,進(jìn)行甄選。考慮你的任務(wù)以及運(yùn)行實(shí)驗(yàn)的方式,然后找個(gè)滿足所有這些需求的 GPU。
現(xiàn)在,對(duì)于那些手頭很緊又要買 GPU 的人來說,選擇更少了。AWS 的 GPU 實(shí)例很貴而且現(xiàn)在也慢,不再是一個(gè)好的選擇,如果你的預(yù)算很少的話。我不推薦 GTX 970,因?yàn)樗俣嚷€死貴,即使在 eBay 上入二手(150 刀),而且還有存儲(chǔ)及顯卡啟動(dòng)問題。相反,多弄點(diǎn)錢買一個(gè) GTX 1060,速度會(huì)快得多,存儲(chǔ)也更大,還沒有這方面的問題。如果你只是買不起 GTX 1060,我推薦 4GB RAM 的 GTX 1050 Ti。4GB 會(huì)有限,但是你可以玩轉(zhuǎn)深度學(xué)習(xí)了,如果你調(diào)一下模型,就能獲得良好的性能。GTX 1050 適合絕大多數(shù) kaggle 競賽,盡管可能會(huì)在一些比賽中限制你的競爭力。
亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)中的 GPU 實(shí)例
在這篇博文的前一個(gè)版本中,我推薦了 AWS GPU 的現(xiàn)貨實(shí)例,但現(xiàn)在我不會(huì)再推薦它了。目前 AWS 上的 GPU 相當(dāng)慢(一個(gè) GTX 1080 的速度是 AWS GPU 的 4 倍)并且其價(jià)格在過去的幾個(gè)月里急劇上升?,F(xiàn)在看起來購買自己的 GPU 又似乎更為明智了。
總結(jié)
運(yùn)用這篇文章里的所有信息,你應(yīng)該能通過平衡內(nèi)存大小的需要、帶寬速度 GB/s 以及 GPU 的價(jià)格來找到合適的 GPU 了,這些推理在未來許多年中都會(huì)是可靠的。但是,現(xiàn)在我所推薦的是 GTX 1080 Ti 或 GTX 1070,只要價(jià)格可以接受就行;如果你剛開始涉足深度學(xué)習(xí)或者手頭緊,那么 GTX 1060 或許適合你。如果你的錢不多,就買 GTX 1050 Ti 吧;如果你是一位計(jì)算機(jī)視覺研究人員,或許該入手 Titan X Pascal(或者就用現(xiàn)有的 GTX Titan Xs)。
總結(jié)性建議
總的說來較好的 GPU:Titan X Pascal 以及 GTX 1080 Ti
有成本效益但價(jià)格高的:GTX 1080 Ti, GTX 1070
有成本效益而且便宜:GTX 1060
用來處理大于 250G 數(shù)據(jù)集:常規(guī) GTX Titan X 或者 Titan X Pascal
我錢不多:GTX 1060
我?guī)缀鯖]錢:GTX 1050 Ti
我參加 Kaggle 比賽: 用于任何常規(guī)比賽,GTX 1060 , 如果是深度學(xué)習(xí)比賽,GTX 1080Ti?
我是一名有競爭力的計(jì)算機(jī)視覺研究人員: Titan X Pascal 或常規(guī) GTX Titan X
我是一名研究人員:GTX 1080 Ti. 有些情況下,比如自然語言處理任務(wù),GTX 1070 或許是可靠的選擇——看一下你當(dāng)前模型的存儲(chǔ)要求。
想建立一個(gè) GPU 集群:這真的很復(fù)雜,你可以從這里得到一些思路:https://timdettmers.wordpress.com/2014/09/21/how-to-build-and-use-a-multi-gpu-system-for-deep-learning/
我剛開始進(jìn)行深度學(xué)習(xí),并且我是認(rèn)真的:開始用 GTX 1060。根據(jù)你下一步的情況(創(chuàng)業(yè)?Kaggle 比賽?研究還是應(yīng)用深度學(xué)習(xí))賣掉你的 GTX 1060 然后買更適合使用目的的。?
原文地址:http://timdettmers.com/2017/03/19/which-gpu-for-deep-learning/
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)
QQ群:81035754
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4488.html
摘要:文章翻譯自深度學(xué)習(xí)是一個(gè)計(jì)算需求強(qiáng)烈的領(lǐng)域,的選擇將從根本上決定你的深度學(xué)習(xí)研究過程體驗(yàn)。因此,今天就談?wù)勅绾芜x擇一款合適的來進(jìn)行深度學(xué)習(xí)的研究。此外,即使深度學(xué)習(xí)剛剛起步,仍然在持續(xù)深入的發(fā)展。例如,一個(gè)普通的在上的售價(jià)約為美元。 文章翻譯自:Which GPU(s) to Get for Deep Learning(http://t.cn/R6sZh27)深度學(xué)習(xí)是一個(gè)計(jì)算需求強(qiáng)烈的領(lǐng)域...
摘要:很明顯這臺(tái)機(jī)器受到了英偉達(dá)的部分啟發(fā)至少機(jī)箱是這樣,但價(jià)格差不多只有的一半。這篇個(gè)文章將幫助你安裝英偉達(dá)驅(qū)動(dòng),以及我青睞的一些深度學(xué)習(xí)工具與庫。 本文作者 Roelof Pieters 是瑞典皇家理工學(xué)院 Institute of Technology & Consultant for Graph-Technologies 研究深度學(xué)習(xí)的一位在讀博士,他同時(shí)也運(yùn)營著自己的面向客戶的深度學(xué)習(xí)產(chǎn)...
摘要:幸運(yùn)的是,這些正是深度學(xué)習(xí)所需的計(jì)算類型。幾乎可以肯定,英偉達(dá)是目前執(zhí)行深度學(xué)習(xí)任務(wù)較好的選擇。今年夏天,發(fā)布了平臺(tái)提供深度學(xué)習(xí)支持。該工具適用于主流深度學(xué)習(xí)庫如和。因?yàn)榈暮啙嵑蛷?qiáng)大的軟件包擴(kuò)展體系,它目前是深度學(xué)習(xí)中最常見的語言。 深度學(xué)習(xí)初學(xué)者經(jīng)常會(huì)問到這些問題:開發(fā)深度學(xué)習(xí)系統(tǒng),我們需要什么樣的計(jì)算機(jī)?為什么絕大多數(shù)人會(huì)推薦英偉達(dá) GPU?對(duì)于初學(xué)者而言哪種深度學(xué)習(xí)框架是較好的?如何將...
摘要:在兩個(gè)平臺(tái)三個(gè)平臺(tái)下,比較這五個(gè)深度學(xué)習(xí)庫在三類流行深度神經(jīng)網(wǎng)絡(luò)上的性能表現(xiàn)。深度學(xué)習(xí)的成功,歸因于許多層人工神經(jīng)元對(duì)輸入數(shù)據(jù)的高表征能力。在年月,官方報(bào)道了一個(gè)基準(zhǔn)性能測試結(jié)果,針對(duì)一個(gè)層全連接神經(jīng)網(wǎng)絡(luò),與和對(duì)比,速度要快上倍。 在2016年推出深度學(xué)習(xí)工具評(píng)測的褚曉文團(tuán)隊(duì),趕在猴年最后一天,在arXiv.org上發(fā)布了的評(píng)測版本。這份評(píng)測的初版,通過國內(nèi)AI自媒體的傳播,在國內(nèi)業(yè)界影響很...
摘要:在本節(jié)中,我們將看到一些最流行和最常用的庫,用于機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是用于數(shù)據(jù)挖掘,分析和機(jī)器學(xué)習(xí)的最流行的庫。愿碼提示網(wǎng)址是一個(gè)基于的框架,用于使用多個(gè)或進(jìn)行有效的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)。 showImg(https://segmentfault.com/img/remote/1460000018961827?w=999&h=562); 來源 | 愿碼(ChainDesk.CN)內(nèi)容編輯...
閱讀 1392·2021-09-26 09:55
閱讀 1926·2019-08-30 12:45
閱讀 1069·2019-08-29 11:20
閱讀 3564·2019-08-26 11:33
閱讀 3432·2019-08-26 10:55
閱讀 1697·2019-08-23 17:54
閱讀 2392·2019-08-23 15:55
閱讀 2348·2019-08-23 14:23