成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

TensorFlow 1.11.0 已正式發(fā)布!

ybak / 3464人閱讀

摘要:版本正式發(fā)布啦本文將為大家介紹此版本的一些重大改變主要功能和改進修復以及其他變化。主要特點和改進現(xiàn)在根據(jù)預構(gòu)建的二進制文件是針對和構(gòu)建的。,,開始支持分布式在中添加的分布式策略支持和獨立客戶端支持。

TensorFlow 1.11.0 版本正式發(fā)布啦!

本文將為大家介紹此版本的一些重大改變、主要功能和改進、Bug 修復以及其他變化。

主要特點和改進

Nvidia GPU:

現(xiàn)在(根據(jù) TensorFlow 1.11)預構(gòu)建的二進制文件是針對 cuDNN 7.2 和 TensorRT 4 構(gòu)建的。請查看升級的安裝指南:Installing TensorFlow on Ubuntu(https://www.tensorflow.org/install/install_Linux#tensorflow_gpu_support)

Google Cloud TPU:

針對 Google Cloud TPU 上的 Keras 的實驗性 tf.data 集成

在 Google Cloud TPU 上對 Eager Execution 進行試驗性/預覽支持

分布式策略:

為 tf.keras 添加 multi-GPU 分布式策略支持。fit,evaluate,predict 開始支持分布式

在 Estimator 中添加 multi-worker 的分布式策略支持和獨立客戶端支持。 查看 [README] (https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/distribute) ?了解更多細節(jié)

添加 C, C++, 和 Python 函數(shù)來查詢內(nèi)核

重大改變

Keras:

tf.keras 的 RandomUniform,RandomNormal 和 TruncatedNormal 初始化程序的默認值已更改,以保證與外部 Keras 中的默認值相匹配

重大改變:運行 Sequential 模型的 model.get_config() 方法,現(xiàn)在返回 config dictionary(與其他模型實例保持一致),不再返回基礎層的配置列表

Bug 修復以及其他變化

C++:

更改了 SessionFactory::NewSession 的簽名,使其能夠?qū)﹀e誤給出詳細的信息

tf.data:

tf.contrib.data.make_csv_dataset() 去除了 num_parallel_parser_calls 參數(shù)

如果參數(shù)沒有匹配的文件,則 tf.data.Dataset.list_files() 在初始化時會報異常

為了清晰起見,將 BigTable 類別重新命名為 BigtableTable

記錄 Cloud Bigtable API 的使用情況

添加 tf.contrib.data.reduce_dataset,可用于將數(shù)據(jù)集減少到單個元素

泛化 tf.contrib.data.sliding_window_batch

INC:

對三角求解進行了運行上的改進

tf.contrib:

為 tf.keras.layers.LocallyConnected2D 和 tf.keras.layers.LocallyConnected1D 添加了 implementation 參數(shù)。 新模式(implementation = 2)在執(zhí)行前向傳播時以單個密集矩陣的乘積來進行,這在某些場景下會帶來顯著加速(但在某些場景下可能會導致性能降低 - 請參閱 docstring)。 該選項還允許使用 padding = same

添加了新文檔來說明 tf.fill 和 tf.constant 之間差異

實驗性地添加了 IndexedDatasets

使用 lite proto 運行時添加選擇性注冊目標

為 TensorFlow Lite Java 添加簡單的 Tensor 和 DataType 類別

添加對 uint32 和 uint64 的 bitcasting 的支持

添加了一個 Estimator 子類,該子類可以從SavedModel(SavedModelEstimator)創(chuàng)建

添加葉形索引模式作為參數(shù)

從 tf.contrib.image.transform 的輸入中允許不同的輸出形狀

將 StackedRNNCell 的 state_size 順序更改為自然順序。為保持現(xiàn)有行為,用戶可以在構(gòu)造 StackedRNNCell 時添加 reverse_state_order = True

棄用 self.test_session(),以支持 self.session() 或 self.cached_session()

直接導入 tensor.proto.h(傳遞導入將很快從 tensor.h 中刪除)

Estimator.train() 現(xiàn)在支持開箱即用的 tf.contrib.summary。* 每次調(diào)用.train() 現(xiàn)在都會創(chuàng)建一個多帶帶的 tfevents 文件,不再重新使用共享文件

修復 FTRL 優(yōu)化器 L2 的收縮性能:L2 收縮項的梯度不應該在累加器中終止

修復 toco 在 Windows 上編譯/執(zhí)行的 bug

添加了 GoogleZoneProvider 類別,以檢測 TensorFlow 程序的各部分在 Google Cloud Engine 運行的位置

現(xiàn)在可以安全地在 nullptr 上調(diào)用任何 C API 的 TF_Delete * 函數(shù)

將 Android 上的一些錯誤信息記錄到日志

匹配 TFLite 中的 FakeQuant 數(shù)字,以提高 TFLite 量化推理模型的準確性

GCS 文件系統(tǒng)的可選存儲桶位置檢查

StringSplitOp 和 StringSplitV2Op 的性能得到加強

正則表達式替換操作的性能得到提高

如果 if.write() 失敗,TFRecordWriter 現(xiàn)在會報錯

TPU:TPUClusterResolvers 集群解析器將會提供更詳細有用的錯誤消息

不推薦使用 SavedModelBuilder 方法添加 MetaGraphs 的 legacy_init_op 參數(shù)。 請改用等效的 main_op 參數(shù)。我們現(xiàn)在在構(gòu)建 SavedModel 時明確會檢查單個 main_op 或 legacy_init_op,而在以前對 main_op 的檢查僅在加載時進行

現(xiàn)在可以在 RunConfig 中配置用于 Estimator 培訓的協(xié)議

三角數(shù)的求解性能得到提高

將 TF 和 Keras 的 RNN 單元的 API 進行了統(tǒng)一。為 Keras 和 TF 的 RNN 單元添加了新的 get_initial_state() 方法,這個方法未來將替代現(xiàn)有的 zero_state() 方法

更新了 Keras 中變量的初始化

在 tensorflow / contrib 中更新 “constrained_optimization”

提升樹算法:添加修剪模式

tf.train.Checkpoint 默認情況下不刪除舊的檢查點

tfdbg:調(diào)試時,緩存的 Tensor 數(shù)據(jù)所占用的磁盤空間上限為 100 GB。 允許添加環(huán)境變量 TFDBG_DISK_BYTES_LIMIT 來調(diào)整此上限值

感謝我們的貢獻者

本次的發(fā)布離不開 Google 以下許多同仁的貢獻:?

Aapeli, adoda, Ag Ramesh, Amogh Mannekote, Andrew Gibiansky, Andy Craze, Anirudh Koul, Aurelien Geron, Avijit, Avijit-Nervana, Ben, Benjamin H. Myara, bhack, Brett Koonce,張?zhí)靻? 張曉飛......

聲明:文章收集于網(wǎng)絡,如有侵權(quán),請聯(lián)系小編及時處理,謝謝!

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4820.html

相關(guān)文章

  • Keras 2發(fā)布:實現(xiàn)與TensorFlow的直接整合

    摘要:在年月首次推出,現(xiàn)在用戶數(shù)量已經(jīng)突破了萬。其中有數(shù)百人為代碼庫做出了貢獻,更有數(shù)千人為社區(qū)做出了貢獻?,F(xiàn)在我們推出,它帶有一個更易使用的新,實現(xiàn)了與的直接整合。類似的,正在用實現(xiàn)份額部分規(guī)范,如。大量的傳統(tǒng)度量和損失函數(shù)已被移除。 Keras 在 2015 年 3 月首次推出,現(xiàn)在用戶數(shù)量已經(jīng)突破了 10 萬。其中有數(shù)百人為 Keras 代碼庫做出了貢獻,更有數(shù)千人為 Keras 社區(qū)做出了...

    voidking 評論0 收藏0
  • TensorFlow正式發(fā)布1.5.0,支持CUDA 9和cuDNN 7,雙倍提速

    摘要:剛剛,發(fā)布了正式版,很多人都期待已久,最重大的改動是支持和,這承諾將使上的訓練速度翻倍。此外,預覽版可用,也將吸引不少初學者。其他為添加必要的形狀支持。,,現(xiàn)在支持具有和支持的任意擴展。允許稀疏浮動分割以支持多值特征列。 剛剛,TensorFlow發(fā)布了1.5.0正式版,很多人都期待已久,最重大的改動是支持CUDA 9和cuDNN 7,這承諾將使Volta GPUs/FP16上的訓練速度翻倍...

    zgbgx 評論0 收藏0
  • TensorFlow發(fā)布機器學習框架TensorFlow.js

    摘要:今年,發(fā)布了面向開發(fā)者的全新機器學習框架。今年,圍繞,谷歌同樣做出了幾項重大宣布發(fā)布新的官方博客與頻道面向開發(fā)者的全新機器學習框架發(fā)布一系列新的庫與工具例如等。提供了多種適用于張量的線性代數(shù)和機器學習運算的。 當時時間 3 月 30 日,谷歌 TenosrFlow 開發(fā)者峰會 2018 在美國加州石景山開幕,來自全球的機器學習用戶圍繞 TensorFlow 展開技術(shù)演講與演示。去年的 Ten...

    malakashi 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<