原文中具體闡述了簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變,原文中根據(jù)實(shí)例編碼推薦的十分詳盡,對(duì)大家學(xué)習(xí)培訓(xùn)或工作具有很強(qiáng)的參照學(xué)習(xí)培訓(xùn)使用價(jià)值,必須的小伙伴們下邊伴隨著小編就來(lái)互相學(xué)習(xí)了解一下吧
原文中以這段編碼為例子,簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變(具體是tensorflow轉(zhuǎn)pytorch),很有可能推薦的沒(méi)那么詳盡,僅作參考。
因?yàn)樽约褐涣私鈖ytorch,而對(duì)tensorflow不得而知,而編碼經(jīng)常碰到tensorflow,可是我期待使用pytorch,因而簡(jiǎn)單介紹tensorflow轉(zhuǎn)pytorch,可能出現(xiàn)眾多不正確,期待輕噴~
1.自變量形式參數(shù)
在TensorFlow的世界中,變量的定義和復(fù)位是分離的。
tensorflow中一般是在開(kāi)始形式參數(shù)自變量,申明其基本數(shù)據(jù)類型、樣子等,在實(shí)施的時(shí)候才賦具體值,如圖所示,而pytorch使用的時(shí)候才會(huì)界定,界定和變量初始化是拼在一起的。
2.建立自變量并復(fù)位
tensorflow中運(yùn)用tf.Variable創(chuàng)建自變量然后進(jìn)行復(fù)位,而pytorch使得用torch.tensor建立自變量然后進(jìn)行復(fù)位,如圖所示。
3.句子實(shí)行
在TensorFlow的世界中,變量的定義和復(fù)位是分離的,所有關(guān)于圖自變量的取值和測(cè)算都需要根據(jù)tf.Session的run去進(jìn)行。
sess.run([G_solver,G_loss_temp,MSE_loss], feed_dict={X:X_mb,M:M_mb,H:H_mb})
而在pytorch中,并不一定根據(jù)run開(kāi)展,取值完后立即測(cè)算就可以。
4.tensor
pytorch計(jì)算時(shí)應(yīng)建立完的numpy數(shù)組轉(zhuǎn)為tensor,如下所示:
ifuse_gpuisTrue: X_mb=torch.tensor(X_mb,device="cuda") M_mb=torch.tensor(M_mb,device="cuda") H_mb=torch.tensor(H_mb,device="cuda") else: X_mb=torch.tensor(X_mb) M_mb=torch.tensor(M_mb) H_mb=torch.tensor(H_mb)
最后運(yùn)行完還要將tensor數(shù)據(jù)類型轉(zhuǎn)換回numpy數(shù)組:
ifuse_gpuisTrue: imputed_data=imputed_data.cpu().detach().numpy() else: imputed_data=imputed_data.detach().numpy() 而tensorflow中不用這樣的操作。
5.別的函數(shù)公式
在tensorflow其中包含眾多函數(shù)公式是pytorch中不具備的,可是都能在別的庫(kù)文件尋找類似,詳細(xì)如下表所顯示。
綜上所述,這篇文章就給大家介紹到這里了,希望可以給大家?guī)?lái)幫助。
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://systransis.cn/yun/129032.html
原文中具體闡述了簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變,原文中根據(jù)實(shí)例編碼推薦的十分詳盡,對(duì)大家學(xué)習(xí)培訓(xùn)或工作具有很強(qiáng)的參照學(xué)習(xí)培訓(xùn)使用價(jià)值,必須的小伙伴們下邊伴隨著小編就來(lái)互相學(xué)習(xí)了解一下吧 原文中以這段編碼為例子,簡(jiǎn)單介紹tensorflow與pytorch的互相轉(zhuǎn)變(具體是tensorflow轉(zhuǎn)pytorch),很有可能推薦的沒(méi)那么詳盡,僅作參考?! ¤b于自己只了解py...
TensorFlow和PyTorch是兩個(gè)最流行的深度學(xué)習(xí)框架之一。雖然這兩個(gè)框架都可以完成大多數(shù)深度學(xué)習(xí)任務(wù),但它們之間仍有很多區(qū)別。本文將探討TensorFlow和PyTorch之間的一些區(qū)別。 1. 靜態(tài)圖和動(dòng)態(tài)圖 TensorFlow使用靜態(tài)圖,它需要先定義計(jì)算圖,然后再執(zhí)行計(jì)算。這使得TensorFlow在執(zhí)行大規(guī)模計(jì)算時(shí)非常高效。PyTorch使用動(dòng)態(tài)圖,它允許用戶在執(zhí)行計(jì)算時(shí)動(dòng)態(tài)...
摘要:截止到今天,已公開(kāi)發(fā)行一周年。一年以來(lái),社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝。所以與衡量它的指標(biāo)包括在機(jī)器學(xué)習(xí)研究論文中的使用。來(lái)自香港科技大學(xué)的在上推出了面向普通觀眾的在線課程。 Yann LeCun Twitter截止到今天,PyTorch 已公開(kāi)發(fā)行一周年。一年以來(lái),我們致力于打造一個(gè)靈活的深度學(xué)習(xí)研究平臺(tái)。一年以來(lái),PyTorch 社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝...
摘要:是微軟開(kāi)源的用于不同深度學(xué)習(xí)框架和的模型之間互相轉(zhuǎn)換的工具,通過(guò)模型的中間表示來(lái)完成不同框架模型之間的轉(zhuǎn)換。 MMdnn簡(jiǎn)介在工業(yè)街和學(xué)術(shù)界中,開(kāi)發(fā)者或者研究人員可以選擇多種深度學(xué)習(xí)框架來(lái)構(gòu)建模型,每種框架有自己特有的網(wǎng)絡(luò)結(jié)構(gòu)定義以及模型保存格式,這種框架之間的鴻溝阻礙了不同框架模型之間的操作。MMdnn是微軟開(kāi)源的用于不同深度學(xué)習(xí)框架(Caffe, Keras, MXNet, Tensor...
摘要:圖和之間的關(guān)系圖例與各版本之間的環(huán)境依賴關(guān)系的原裝驅(qū)動(dòng)并不支持,因此需要禁用掉并且重裝卡官方驅(qū)動(dòng)。會(huì)有很多同學(xué)在不知道的情況下安裝了,最后導(dǎo)致和無(wú)法使用或者無(wú)法安裝等問(wèn)題。 ...
閱讀 923·2023-01-14 11:38
閱讀 895·2023-01-14 11:04
閱讀 756·2023-01-14 10:48
閱讀 2055·2023-01-14 10:34
閱讀 961·2023-01-14 10:24
閱讀 840·2023-01-14 10:18
閱讀 510·2023-01-14 10:09
閱讀 588·2023-01-14 10:02