成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專(zhuān)欄INFORMATION COLUMN

深度學(xué)習(xí)大新聞:谷歌 Tensorflow 選擇 Keras

callmewhy / 1174人閱讀

摘要:在的一條評(píng)論中,的作者谷歌研究員宣布了一條激動(dòng)人心的消息將會(huì)成為第一個(gè)被添加到核心中的高級(jí)別框架,這將會(huì)讓變成的默認(rèn)。但是,和確實(shí)證實(shí)了我的想法和神經(jīng)網(wǎng)絡(luò)不一定都是那么折磨人的。

在 Reddit 的一條評(píng)論中,Keras 的作者、谷歌 AI 研究員 Francois Chollet 宣布了一條激動(dòng)人心的消息:Keras 將會(huì)成為第一個(gè)被添加到 TensorFlow 核心中的高級(jí)別框架,這將會(huì)讓 Keras 變成 Tensorflow 的默認(rèn) API。

背景介紹:Keras 是一個(gè)高級(jí)別的 Python 神經(jīng)網(wǎng)絡(luò)框架,能在 TensorFlow 或者 Theano 上運(yùn)行。此外,能用到 TensorFlow 上的還有一些高級(jí)別的 Python 神經(jīng)網(wǎng)絡(luò)框架,比如,TF-Slim,雖然它們發(fā)展更不完善,也不是 TensorFlow 的核心部分。

神經(jīng)網(wǎng)絡(luò)研究者 Rachel Thomas 在 fast.ai 上撰文介紹了這一消息,并寫(xiě)下了他使用TensorFlow 的心得體會(huì):

他說(shuō),使用 TensorFlow 給我的感覺(jué)就是我還不夠聰明,但是,在使用 Keras 的時(shí)候我會(huì)覺(jué)得神經(jīng)網(wǎng)絡(luò)要比我想象的簡(jiǎn)單。這是因?yàn)?,TensorFlow 的 API 過(guò)于冗長(zhǎng)和混亂,也是因?yàn)?Keras 擁有我體驗(yàn)過(guò)的最貼心的、最具表達(dá)力的 API。對(duì)我來(lái)說(shuō),在剛開(kāi)始使用TensorFlow 受挫后就來(lái)公開(kāi)批評(píng)它有點(diǎn)尷尬,它讓人覺(jué)得沉重、不自然。當(dāng)然,其中有我自己的原因。但是,Keras 和 Theano 確實(shí)證實(shí)了我的想法:tensors 和 神經(jīng)網(wǎng)絡(luò)不一定都是那么折磨人的。

在一次大學(xué)作業(yè)中,我曾經(jīng)使用一個(gè)硬件描述語(yǔ)言,通過(guò)添加和改變 CPU 暫存器中的字節(jié)來(lái)編碼除法(division)。這是一個(gè)很有趣的練習(xí),但是我非常確定,我不想用這種方式對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行編碼。使用一個(gè)更高級(jí)別的語(yǔ)言的好處是顯而易見(jiàn)的:更快地編碼、更少的bug,以及,更少的痛苦。Keras 的好處還有更多——它更適配神經(jīng)網(wǎng)絡(luò)的概念,能促進(jìn)新的發(fā)現(xiàn)。Keras 讓我更加擅長(zhǎng)神經(jīng)網(wǎng)絡(luò),因?yàn)檎Z(yǔ)言抽象與神經(jīng)網(wǎng)絡(luò)的概念搭配得更加好。

使用與我的思維相同的概念語(yǔ)言寫(xiě)程序,能讓我把注意力集中在需要解決的難題上,而不是編程語(yǔ)言的偽跡上。因?yàn)?,?dāng)我把更多的精力花在頭腦中的思維與編程語(yǔ)言之間的概念轉(zhuǎn)換的時(shí)候,我的思考就會(huì)變慢。TensorFlow 影響了我的生產(chǎn)力。

正如 Chollet 所寫(xiě):“如果你想要長(zhǎng)期使用一個(gè)更高級(jí)別的面向?qū)ο蟮?TF API ,Karas 就是正確的道路。”

歡迎加入本站公開(kāi)興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/4442.html

相關(guān)文章

  • 23種深度學(xué)習(xí)庫(kù)排行榜:TensorFlow最活躍、Keras最流行

    摘要:我們對(duì)種用于數(shù)據(jù)科學(xué)的開(kāi)源深度學(xué)習(xí)庫(kù)作了排名。于年月發(fā)布了第名,已經(jīng)躋身于深度學(xué)習(xí)庫(kù)的上半部分。是最流行的深度學(xué)習(xí)前端第位是排名較高的非框架庫(kù)。頗受對(duì)數(shù)據(jù)集使用深度學(xué)習(xí)的數(shù)據(jù)科學(xué)家的青睞。深度學(xué)習(xí)庫(kù)的完整列表來(lái)自幾個(gè)來(lái)源。 我們對(duì)23種用于數(shù)據(jù)科學(xué)的開(kāi)源深度學(xué)習(xí)庫(kù)作了排名。這番排名基于權(quán)重一樣大小的三個(gè)指標(biāo):Github上的活動(dòng)、Stack Overflow上的活動(dòng)以及谷歌搜索結(jié)果。排名結(jié)果...

    princekin 評(píng)論0 收藏0
  • ArXiv最受歡迎開(kāi)源深度學(xué)習(xí)框架榜單:TensorFlow第一

    摘要:但年月,宣布將在年終止的開(kāi)發(fā)和維護(hù)。性能并非最優(yōu),為何如此受歡迎粉絲團(tuán)在過(guò)去的幾年里,出現(xiàn)了不同的開(kāi)源深度學(xué)習(xí)框架,就屬于其中典型,由谷歌開(kāi)發(fā)和支持,自然引發(fā)了很大的關(guān)注。 Keras作者Fran?ois Chollet剛剛在Twitter貼出一張圖片,是近三個(gè)月來(lái)arXiv上提到的深度學(xué)習(xí)開(kāi)源框架排行:TensorFlow排名第一,這個(gè)或許并不出意外,Keras排名第二,隨后是Caffe、...

    trilever 評(píng)論0 收藏0
  • 從NNVM看2016年深度學(xué)習(xí)框架發(fā)展趨勢(shì)

    摘要:兩者取長(zhǎng)補(bǔ)短,所以深度學(xué)習(xí)框架在年,迎來(lái)了前后端開(kāi)發(fā)的黃金時(shí)代。陳天奇在今年的中,總結(jié)了計(jì)算圖優(yōu)化的三個(gè)點(diǎn)依賴(lài)性剪枝分為前向傳播剪枝,例已知,,求反向傳播剪枝例,,求,根據(jù)用戶(hù)的求解需求,可以剪掉沒(méi)有求解的圖分支。 虛擬框架殺入從發(fā)現(xiàn)問(wèn)題到解決問(wèn)題半年前的這時(shí)候,暑假,我在SIAT MMLAB實(shí)習(xí)??粗乱粫?huì)兒跑Torch,一會(huì)兒跑MXNet,一會(huì)兒跑Theano。SIAT的服務(wù)器一般是不...

    ThinkSNS 評(píng)論0 收藏0
  • Keras vs PyTorch:誰(shuí)是「第一」深度學(xué)習(xí)框架?

    摘要:第一個(gè)深度學(xué)習(xí)框架該怎么選對(duì)于初學(xué)者而言一直是個(gè)頭疼的問(wèn)題。簡(jiǎn)介和是頗受數(shù)據(jù)科學(xué)家歡迎的深度學(xué)習(xí)開(kāi)源框架。就訓(xùn)練速度而言,勝過(guò)對(duì)比總結(jié)和都是深度學(xué)習(xí)框架初學(xué)者非常棒的選擇。 「第一個(gè)深度學(xué)習(xí)框架該怎么選」對(duì)于初學(xué)者而言一直是個(gè)頭疼的問(wèn)題。本文中,來(lái)自 deepsense.ai 的研究員給出了他們?cè)诟呒?jí)框架上的答案。在 Keras 與 PyTorch 的對(duì)比中,作者還給出了相同神經(jīng)網(wǎng)絡(luò)在不同框...

    _DangJin 評(píng)論0 收藏0
  • TensorFlow1.2.0版發(fā)布:14大新功能,增加Intel MKL集成

    摘要:主要的功能和改進(jìn)上支持。對(duì)象現(xiàn)在從屬于,在發(fā)布時(shí)的嚴(yán)格描述已經(jīng)被刪除一個(gè)首次被使用,它自己緩存其范圍。在發(fā)布前,許多的的功能和類(lèi)別都在命名空間中,后被移到。雖然我們會(huì)盡量保持源代碼與兼容,但不能保證。為增加了雙線(xiàn)性插值。 主要的功能和改進(jìn)1. Windows上支持Python3.6。2. 時(shí)空域去卷積(spatio temporal deconvolution.)增加了tf.layers.c...

    cjie 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<