成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

探討tensorflow與pytorch的互相轉(zhuǎn)變

89542767 / 558人閱讀

  原文中具體闡述了簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變,原文中根據(jù)實(shí)例編碼推薦的十分詳盡,對(duì)大家學(xué)習(xí)培訓(xùn)或工作具有很強(qiáng)的參照學(xué)習(xí)培訓(xùn)使用價(jià)值,必須的小伙伴們下邊伴隨著小編就來(lái)互相學(xué)習(xí)了解一下吧


  原文中以這段編碼為例子,簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變(具體是tensorflow轉(zhuǎn)pytorch),很有可能推薦的沒(méi)那么詳盡,僅作參考。


  因?yàn)樽约褐涣私鈖ytorch,而對(duì)tensorflow不得而知,而編碼經(jīng)常碰到tensorflow,可是我期待使用pytorch,因而簡(jiǎn)單介紹tensorflow轉(zhuǎn)pytorch,可能出現(xiàn)眾多不正確,期待輕噴~


  1.自變量形式參數(shù)


  在TensorFlow的世界中,變量的定義和復(fù)位是分離的。


  tensorflow中一般是在開(kāi)始形式參數(shù)自變量,申明其基本數(shù)據(jù)類型、樣子等,在實(shí)施的時(shí)候才賦具體值,如圖所示,而pytorch使用的時(shí)候才會(huì)界定,界定和變量初始化是拼在一起的。

01.png

  2.建立自變量并復(fù)位


  tensorflow中運(yùn)用tf.Variable創(chuàng)建自變量然后進(jìn)行復(fù)位,而pytorch使得用torch.tensor建立自變量然后進(jìn)行復(fù)位,如圖所示。

02.png

  3.句子實(shí)行


  在TensorFlow的世界中,變量的定義和復(fù)位是分離的,所有關(guān)于圖自變量的取值和測(cè)算都需要根據(jù)tf.Session的run去進(jìn)行。


  sess.run([G_solver,G_loss_temp,MSE_loss],
  feed_dict={X:X_mb,M:M_mb,H:H_mb})


  而在pytorch中,并不一定根據(jù)run開(kāi)展,取值完后立即測(cè)算就可以。


  4.tensor


  pytorch計(jì)算時(shí)應(yīng)建立完的numpy數(shù)組轉(zhuǎn)為tensor,如下所示:


  ifuse_gpuisTrue:
  X_mb=torch.tensor(X_mb,device="cuda")
  M_mb=torch.tensor(M_mb,device="cuda")
  H_mb=torch.tensor(H_mb,device="cuda")
  else:
  X_mb=torch.tensor(X_mb)
  M_mb=torch.tensor(M_mb)
  H_mb=torch.tensor(H_mb)


  最后運(yùn)行完還要將tensor數(shù)據(jù)類型轉(zhuǎn)換回numpy數(shù)組:


  ifuse_gpuisTrue:
  imputed_data=imputed_data.cpu().detach().numpy()
  else:
  imputed_data=imputed_data.detach().numpy()
  而tensorflow中不用這樣的操作。

  5.別的函數(shù)公式


  在tensorflow其中包含眾多函數(shù)公式是pytorch中不具備的,可是都能在別的庫(kù)文件尋找類似,詳細(xì)如下表所顯示。

03.png

  綜上所述,這篇文章就給大家介紹到這里了,希望可以給大家?guī)?lái)幫助。

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/129032.html

相關(guān)文章

  • 探討tensorflowpytorch互相轉(zhuǎn)變

      原文中具體闡述了簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變,原文中根據(jù)實(shí)例編碼推薦的十分詳盡,對(duì)大家學(xué)習(xí)培訓(xùn)或工作具有很強(qiáng)的參照學(xué)習(xí)培訓(xùn)使用價(jià)值,必須的小伙伴們下邊伴隨著小編就來(lái)互相學(xué)習(xí)了解一下吧  原文中以這段編碼為例子,簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變(具體是tensorflow轉(zhuǎn)pytorch),很有可能推薦的沒(méi)那么詳盡,僅作參考?! ¤b于自己只了解py...

    89542767 評(píng)論0 收藏0
  • tensorflowpytorch區(qū)別

    TensorFlow和PyTorch是兩個(gè)最流行的深度學(xué)習(xí)框架之一。雖然這兩個(gè)框架都可以完成大多數(shù)深度學(xué)習(xí)任務(wù),但它們之間仍有很多區(qū)別。本文將探討TensorFlow和PyTorch之間的一些區(qū)別。 1. 靜態(tài)圖和動(dòng)態(tài)圖 TensorFlow使用靜態(tài)圖,它需要先定義計(jì)算圖,然后再執(zhí)行計(jì)算。這使得TensorFlow在執(zhí)行大規(guī)模計(jì)算時(shí)非常高效。PyTorch使用動(dòng)態(tài)圖,它允許用戶在執(zhí)行計(jì)算時(shí)動(dòng)態(tài)...

    lidashuang 評(píng)論0 收藏1671
  • PyTorch一周年戰(zhàn)績(jī)總結(jié):是否比TensorFlow來(lái)勢(shì)兇猛?

    摘要:截止到今天,已公開(kāi)發(fā)行一周年。一年以來(lái),社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝。所以與衡量它的指標(biāo)包括在機(jī)器學(xué)習(xí)研究論文中的使用。來(lái)自香港科技大學(xué)的在上推出了面向普通觀眾的在線課程。 Yann LeCun Twitter截止到今天,PyTorch 已公開(kāi)發(fā)行一周年。一年以來(lái),我們致力于打造一個(gè)靈活的深度學(xué)習(xí)研究平臺(tái)。一年以來(lái),PyTorch 社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝...

    ymyang 評(píng)論0 收藏0
  • 微軟開(kāi)源深度學(xué)習(xí)模型轉(zhuǎn)換工具M(jìn)Mdnn

    摘要:是微軟開(kāi)源的用于不同深度學(xué)習(xí)框架和的模型之間互相轉(zhuǎn)換的工具,通過(guò)模型的中間表示來(lái)完成不同框架模型之間的轉(zhuǎn)換。 MMdnn簡(jiǎn)介在工業(yè)街和學(xué)術(shù)界中,開(kāi)發(fā)者或者研究人員可以選擇多種深度學(xué)習(xí)框架來(lái)構(gòu)建模型,每種框架有自己特有的網(wǎng)絡(luò)結(jié)構(gòu)定義以及模型保存格式,這種框架之間的鴻溝阻礙了不同框架模型之間的操作。MMdnn是微軟開(kāi)源的用于不同深度學(xué)習(xí)框架(Caffe, Keras, MXNet, Tensor...

    高璐 評(píng)論0 收藏0
  • Anaconda+CUDA+cuDNN+Tensorflow2.0環(huán)境搭建

    摘要:圖和之間的關(guān)系圖例與各版本之間的環(huán)境依賴關(guān)系的原裝驅(qū)動(dòng)并不支持,因此需要禁用掉并且重裝卡官方驅(qū)動(dòng)。會(huì)有很多同學(xué)在不知道的情況下安裝了,最后導(dǎo)致和無(wú)法使用或者無(wú)法安裝等問(wèn)題。 ...

    biaoxiaoduan 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<