摘要:設計用于處理序列依賴性的強大類型的神經(jīng)網(wǎng)絡稱為復現(xiàn)神經(jīng)網(wǎng)絡。你會知道關于國際航空公司乘客時間序列預測問題。感謝所有指出這個問題的人和菲利普奧布萊恩幫助提出的解決方案。
段哥
http://machinelearningmastery...
時間序列預測問題是一種困難類型的預測建模問題。
與回歸預測建模不同,時間序列還增加了輸入變量之間的序列相關性的復雜性。
設計用于處理序列依賴性的強大類型的神經(jīng)網(wǎng)絡稱為復現(xiàn)神經(jīng)網(wǎng)絡。 長期短期記憶網(wǎng)絡或LSTM網(wǎng)絡是一種用于深度學習的遞歸神經(jīng)網(wǎng)絡,因為可以成功地訓練非常大的體系結(jié)構(gòu)。
在本文中,您將了解如何使用Keras深度學習庫來開發(fā)Python中的LSTM網(wǎng)絡,以解決演示時間序列預測問題。
完成本教程后,您將了解如何為您自己的時間序列預測問題和其他更一般的序列問題實現(xiàn)和開發(fā)LSTM網(wǎng)絡。 你會知道:
·關于國際航空公司乘客時間序列預測問題。
·如何開發(fā)LSTM網(wǎng)絡用于回歸,基于窗口和時間步長的時間序列預測問題的框架。
·如何使用LSTM網(wǎng)絡開發(fā)和進行預測,這些網(wǎng)絡可以在非常長的序列中維護狀態(tài)(內(nèi)存)。
在本教程中,我們將為標準時間序列預測問題開發(fā)大量的LSTM。
問題和LSTM網(wǎng)絡的選擇配置演示的目的是他們沒有優(yōu)化。
這些示例將向您展示如何為時間序列預測建模問題開發(fā)自己的不同結(jié)構(gòu)化LSTM網(wǎng)絡。
讓我們開始吧。
2016.10更新:在每個示例中計算RMSE的方式計算誤差。 報告的RMSE只是平淡的錯誤。 現(xiàn)在,RMSE直接從預測計算,RMSE和預測圖以原始數(shù)據(jù)集為單位。 使用Keras 1.1.0,TensorFlow 0.10.0和scikit-learn v0.18評價模型。 感謝所有指出這個問題的人和菲利普·奧布萊恩幫助提出的解決方案。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/38490.html
摘要:前饋網(wǎng)絡的反向傳播從最后的誤差開始,經(jīng)每個隱藏層的輸出權(quán)重和輸入反向移動,將一定比例的誤差分配給每個權(quán)重,方法是計算權(quán)重與誤差的偏導數(shù),即兩者變化速度的比例。隨后,梯度下降的學習算法會用這些偏導數(shù)對權(quán)重進行上下調(diào)整以減少誤差。 目錄前饋網(wǎng)絡遞歸網(wǎng)絡沿時間反向傳播梯度消失與梯度膨脹長短期記憶單元(LSTM)涵蓋多種時間尺度本文旨在幫助神經(jīng)網(wǎng)絡學習者了解遞歸網(wǎng)絡的運作方式,以及一種主要的遞歸網(wǎng)絡...
摘要:意味著完全保持,意味著完全丟棄。卡比獸寫這篇博文的時間我本可以抓一百只,請看下面的漫畫。神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡會以的概率判定輸入圖片中的卡比獸正在淋浴,以的概率判定卡比獸正在喝水,以的概率判定卡比獸正在遭遇襲擊。最終結(jié)果是卡比獸正在遭遇襲擊 我第一次學習 LSTM 的時候,它就吸引了我的眼球。事實證明 LSTM 是對神經(jīng)網(wǎng)絡的一個相當簡單的擴展,而且在最近幾年里深度學習所實現(xiàn)的驚人成就背后都有它們...
閱讀 2165·2021-11-12 10:36
閱讀 2157·2021-09-03 10:41
閱讀 2779·2021-08-19 10:57
閱讀 1246·2021-08-17 10:14
閱讀 1498·2019-08-30 15:53
閱讀 1219·2019-08-30 15:43
閱讀 983·2019-08-30 13:16
閱讀 2995·2019-08-29 16:56