成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

90年代的興衰——強化學習與遞歸神經(jīng)網(wǎng)絡

rozbo / 929人閱讀

摘要:強化學習這就是神經(jīng)網(wǎng)絡流行起來的地方。而且,我們也在這一范圍內(nèi)取得了強化學習史上最重要的成績之一一個學習并成為西洋雙陸棋玩家的神經(jīng)網(wǎng)絡。遞歸神經(jīng)網(wǎng)絡圖。

這是「神經(jīng)網(wǎng)絡和深度學習簡史」的第三部分(第一部分,第二部分)。在這一部分,我們將繼續(xù)了解90年代研究的飛速發(fā)展,搞清楚神經(jīng)網(wǎng)絡在60年代末失去眾多青睞的原因。

神經(jīng)網(wǎng)絡做決定

神經(jīng)網(wǎng)絡運用于無監(jiān)督學習的發(fā)現(xiàn)之旅結(jié)束后,讓我們也快速了解一下它們?nèi)绾伪挥糜跈C器學習的第三個分支領(lǐng)域:強化學習。正規(guī)解釋強化學習需要很多數(shù)學符號,不過,它也有一個很容易加以非正式描述的目標:學會做出好決定。給定一些理論代理(比如,一個小軟件),讓代理能夠根據(jù)當前狀態(tài)做出行動,每個采取行動會獲得一些獎勵,而且每個行動也意圖較大化長期效用。

因此,盡管監(jiān)督學習確切告訴了學習算法它應該學習的用以輸出的內(nèi)容,但是,強化學習會過一段時間提供獎勵,作為一個好決定的副產(chǎn)品,不會直接告訴算法應該選擇的正確決定。從一開始,這就是一個非常抽象的決策模型——數(shù)目有限的狀態(tài),并且有一組已知的行動,每種狀態(tài)下的獎勵也是已知的。為了找到一組最優(yōu)行動,編寫出非常優(yōu)雅的方程會因此變得簡單,不過這很難用于解決真實問題——那些狀態(tài)持續(xù)或者很難界定獎勵的問題。

強化學習

這就是神經(jīng)網(wǎng)絡流行起來的地方。機器學習大體上,特別是神經(jīng)網(wǎng)絡,很善于處理混亂的連續(xù)性數(shù)據(jù) ,或者通過實例學習很難加以定義的函數(shù)。盡管分類是神經(jīng)網(wǎng)絡的飯碗,但是,神經(jīng)網(wǎng)絡足夠普適(general),能用來解決許多類型的問題——比如,Bernard Widrow和Ted Hoff的Adaline后續(xù)衍生技術(shù)被用于電路環(huán)境下的自適應濾波器。

因此,BP研究復蘇之后,不久,人們就設(shè)計了利用神經(jīng)網(wǎng)絡進行強化學習的辦法。早期例子之一就是解決一個簡單卻經(jīng)典的問題:平衡運動著的平臺上的棍子,各地控制課堂上學生熟知的倒立擺控制問題。

雙擺控制問題——單擺問題進階版本,是一個經(jīng)典的控制和強化學習任務。

因為有自適應濾波,這項研究就和電子工程領(lǐng)域密切相關(guān),這一領(lǐng)域中,在神經(jīng)網(wǎng)絡出現(xiàn)之前的幾十年當中,控制論已經(jīng)成為一個主要的子領(lǐng)域。雖然該領(lǐng)域已經(jīng)設(shè)計了很多通過直接分析解決問題的辦法,也有一種通過學習解決更加復雜狀態(tài)的辦法,事實證明這一辦法有用——1990年,「Identification and control of dynamical systems using neural networks」的7000次高被引就是證明。或許可以斷定,另有一個獨立于機器學習領(lǐng)域,其中,神經(jīng)網(wǎng)絡就是有用的機器人學。用于機器人學的早期神經(jīng)網(wǎng)絡例子之一就是來自CMU的NavLab,1989年的「Alvinn: An autonomous land vehicle in a neural network」:

1. “NavLab 1984 - 1994”

正如論文所討論的,這一系統(tǒng)中的神經(jīng)網(wǎng)絡通過普通的監(jiān)督學習學會使用傳感器以及人類駕駛時記錄下的駕駛數(shù)據(jù)來控制車輛。也有研究教會機器人專門使用強化學習,正如1993年博士論文「Reinforcement learning for robots using neural networks」所示例的。論文表明,機器人能學會一些動作,比如,沿著墻壁行走,或者在合理時間范圍內(nèi)通過門,考慮到之前倒立擺工作所需的長得不切實際的訓練時間,這真是件好事。

這些發(fā)生在其他領(lǐng)域中的運用當然很酷,但是,當然多數(shù)強化學習和神經(jīng)網(wǎng)絡的研究發(fā)生在人工智能和機器學習范圍內(nèi)。而且,我們也在這一范圍內(nèi)取得了強化學習史上最重要的成績之一:一個學習并成為西洋雙陸棋玩家的神經(jīng)網(wǎng)絡。研究人員用標準強化學習算法來訓練這個被稱為TD-Gammon的神經(jīng)網(wǎng)絡,它也是第一個證明強化學習能夠在相對復雜任務中勝過人類的證據(jù)。而且,這是個特別的加強學習辦法,同樣的僅采用神經(jīng)網(wǎng)絡(沒有加強學習)的系統(tǒng),表現(xiàn)沒這么好。

西洋雙陸棋游戲中,掌握專家級別水平的神經(jīng)網(wǎng)絡

?

但是,正如之前已經(jīng)看到,接下來也會在人工智能領(lǐng)域再次看到,研究進入死胡同。下一個要用TD-Gammnon辦法解決的問題,Sebastian Thrun已經(jīng)在1995年「Learning To Play the Game of Chess」中研究過了,結(jié)果不是很好..盡管神經(jīng)網(wǎng)絡表現(xiàn)不俗,肯定比一個初學者要好,但和很久以前實現(xiàn)的標準計算機程序GNU-Chess相比,要遜色得多。人工智能長期面臨的另一個挑戰(zhàn)——圍棋,亦是如此。這樣說吧,TD-Gammon 有點作弊了——它學會了較精確評估位置,因此,無需對接下來的好多步做任何搜索,只用選擇可以占據(jù)下一個最有利位置的招數(shù)。但是,在象棋游戲和圍棋游戲里,這些游戲?qū)θ斯ぶ悄芏允且粋€挑戰(zhàn),因為需要預估很多步,可能的行動組合如此之巨。而且,就算算法更聰明,當時的硬件又跟不上,Thrun稱「NeuroChess不怎么樣,因為它把大部分時間花在評估棋盤上了。計算大型神經(jīng)網(wǎng)絡函數(shù)耗時是評價優(yōu)化線性評估函數(shù)(an optimized linear evaluation function),比如GNU-Chess,的兩倍?!巩敃r,計算機相對于神經(jīng)網(wǎng)絡需求的不足是一個很現(xiàn)實的問題,而且正如我們將要看到的,這不是一個…

神經(jīng)網(wǎng)絡變得呆頭呆腦

盡管無監(jiān)督學習和加強學習很簡潔,監(jiān)督學習仍然是我最喜歡的神經(jīng)網(wǎng)絡應用實例。誠然,學習數(shù)據(jù)的概率模型很酷,但是,通過反向傳播解決實際問題更容易讓人興奮。我們已經(jīng)看到了Yann Lecun成功解決了識別手寫的問題(這一技術(shù)繼續(xù)被全國用來掃描支票,而且后來的使用更多),另一項顯而易見且相當重要的任務也在同時進行著:理解人類的語音。

和識別手寫一樣,理解人類的語音很難,同一個詞根據(jù)表達的不同,意思也有很多變化。不過,還有額外的挑戰(zhàn):長序列的輸入。你看,如果是圖片,你就可以把字母從圖片中切出來,然后,神經(jīng)網(wǎng)絡就能告訴你這個字母是啥,輸入-輸出模式。但語言就沒那么容易了,把語音拆成字母完全不切實際,就算想要找出語音中的單詞也沒那么容易。而且你想啊,聽到語境中的單詞相比單個單詞,要好理解一點吧!盡管輸入-輸出模式用來逐個處理圖片相當有效,這并不適用于很長的信息,比如音頻或文本。神經(jīng)網(wǎng)絡沒有記憶賴以處理一個輸入能影響后續(xù)的另一個輸入的情況,但這恰恰是我們?nèi)祟愄幚硪纛l或者文本的方式——輸入一串單詞或者聲音,而不是多帶帶輸入。要點是:要解決理解語音的問題,研究人員試圖修改神經(jīng)網(wǎng)絡來處理一系列輸入(就像語音中的那樣)而不是批量輸入(像圖片中那樣)。

Alexander Waibel等人(還有Hinton)提出的解決方法之一,在1989年的「 Phoneme recognition using time-delay neural networks」中得到了介紹。這些時延神經(jīng)網(wǎng)絡和通常意義上的神經(jīng)網(wǎng)絡非常類似,除了每個神經(jīng)元只處理一個輸入子集,而且為不同類型的輸入數(shù)據(jù)延遲配備了幾套權(quán)重。易言之,針對一系列音頻輸入,一個音頻的「移動窗口」被輸入到神經(jīng)網(wǎng)絡,而且隨著窗口移動,每個帶有幾套不同權(quán)重的神經(jīng)元就會根據(jù)這段音頻在窗口中位置,賦予相應的權(quán)重,用這種方法來處理音頻。畫張圖就好理解了:

時延神經(jīng)網(wǎng)絡

從某種意義上來說,這和卷積神經(jīng)網(wǎng)絡差不多——每個單元一次只看一個輸入子集,對每個小子集進行相同的運算,而不是一次性計算整個集合。不同之處在于,在卷積神經(jīng)網(wǎng)絡中不存在時間概念, 每個神經(jīng)元的輸入窗形成整個輸入圖像來計算出一個結(jié)果,而時延神經(jīng)網(wǎng)絡中有一系列的輸入和輸出。一個有趣的事實:據(jù)Hinton說,時延神經(jīng)網(wǎng)絡的理念啟發(fā)了LeCun開發(fā)卷積神經(jīng)網(wǎng)絡。但是,好笑的是,積卷神經(jīng)網(wǎng)絡變得對圖像處理至關(guān)重要,而在語音識別方面,時延神經(jīng)網(wǎng)絡則敗北于另一種方法——遞歸神經(jīng)網(wǎng)絡(RNNs)。你看,目前為止討論過的所有神經(jīng)網(wǎng)絡都是前歸網(wǎng)絡,這意味著某神經(jīng)元的輸出是下一層神經(jīng)元的輸入。但并不一定要這樣,沒有什么阻止我們勇敢的計算機科學家將最后一層的輸出變成第一層的輸入,或者將神經(jīng)元的輸出連接到神經(jīng)元自身。將神經(jīng)元回路接回神經(jīng)網(wǎng)絡,賦予神經(jīng)網(wǎng)絡記憶就被優(yōu)雅地解決了。

遞歸神經(jīng)網(wǎng)絡圖。還記得之前的玻爾茲曼機嗎?大吃一驚吧!那些是遞歸性神經(jīng)網(wǎng)絡。

然而,這可沒有那么容易。注意這個問題——如果反向傳播需要依賴『正向傳播』將輸出層的錯誤反饋回來,那么,如果第一層往回連接到輸出層,系統(tǒng)怎么工作?錯誤會繼續(xù)傳到第一層再傳回到輸出層,在神經(jīng)網(wǎng)絡中循環(huán)往復,無限次地。解決辦法是,通過多重群組獨立推導,通過時間進行反向傳播?;緛碚f,就是將每個通過神經(jīng)網(wǎng)絡的回路做為另一個神經(jīng)網(wǎng)絡的輸入,而且回路次數(shù)有限,通過這樣的辦法把遞歸神經(jīng)網(wǎng)絡鋪開。

通過時間概念反向傳播的直觀圖解。

?

這個很簡單的想法真的起作用了——訓練遞歸神經(jīng)網(wǎng)絡是可能的。并且,有很多人探索出了RNN在語言識別領(lǐng)域的應用。但是,你可能也聽說過其中的波折:這一方法效果并不是很好。為了找出原因,讓我們來認識另一位深度學習的巨人:Yoshua Bengion。大約在1986年,他就開始進行語言識別方向的神經(jīng)網(wǎng)絡研究工作,也參與了許多使用ANN和RNN進行語言識別的學術(shù)論文,最后進入AT&T BELL實驗室工作,Yann LeCun正好也在那里攻克CNN。 實際上,1995年,兩位共同發(fā)表了文章「Convolutional Networks for Images, Speech, and Time-Series」,這是他們第一次合作,后來他們也進行了許多合作。但是,早在1993年,Bengio曾發(fā)表過「A Connectionist Approach to Speech Recognition」。其中,他對有效訓練RNN的一般錯誤進行了歸納:

盡管在許多例子中,遞歸網(wǎng)絡能勝過靜態(tài)網(wǎng)絡,但是,優(yōu)化訓練起來也更有難度。我們的實驗傾向于顯示(遞歸神經(jīng)網(wǎng)絡)的參數(shù)調(diào)整往往收斂在亞優(yōu)化的解里面,(這種解)只考慮了短效應影響因子而不計長效影響因子。例如,在所述實驗中我們發(fā)現(xiàn),RNN根本捕獲不到單音素受到的簡單時間約束…雖然這是一個消極的結(jié)果,但是,更好地理解這一問題可以幫助設(shè)計替代系統(tǒng)來訓練神經(jīng)網(wǎng)絡,讓它學會通過長效影響因子,將輸出序列映射到輸入序列(map input sequences to output sequences with long term dependencies ),比如,為了學習有限狀態(tài)機,語法,以及其他語言相關(guān)的任務。既然基于梯度的方法顯然不足以解決這類問題,我們要考慮其他最優(yōu)辦法,得出可以接受的結(jié)論,即使當判別函數(shù)(criterion function)并不平滑時。

?

新的冬日黎明

因此,有一個問題。一個大問題。而且,基本而言,這個問題就是近來的一個巨大成就:反向傳播。卷積神經(jīng)網(wǎng)絡在這里起到了非常重要的作用,因為反向傳播在有著很多分層的一般神經(jīng)網(wǎng)絡中表現(xiàn)并不好。然而,深度學習的一個關(guān)鍵就是——很多分層,現(xiàn)在的系統(tǒng)大概有20左右的分層。但是,二十世紀八十年代后期,人們就發(fā)現(xiàn),用反向傳播來訓練深度神經(jīng)網(wǎng)絡效果并不盡如人意,尤其是不如對較少層數(shù)的網(wǎng)絡訓練的結(jié)果。原因就是反向傳播依賴于將輸出層的錯誤找到并且連續(xù)地將錯誤原因歸類到之前的各個分層。然而,在如此大量的層次下,這種數(shù)學基礎(chǔ)的歸咎方法最終產(chǎn)生了不是極大就是極小的結(jié)果,被稱為『梯度消失或爆炸的問題』,Jurgen Schmidhuber——另一位深度學習的權(quán)威,給出了更正式也更深刻的歸納:

一篇學術(shù)論文(發(fā)表于1991年,作者Hochreiter)曾經(jīng)對深度學習研究給予了里程碑式的描述。文中第五、第六部分提到:二十世紀九十年代晚期,有些實驗表明,前饋或遞歸深度神經(jīng)網(wǎng)絡是很難用反向傳播法進行訓練的(見5.5)。Horchreiter在研究中指出了導致問題的一個主要原因:傳統(tǒng)的深度神經(jīng)網(wǎng)絡遭遇了梯度消失或爆炸問題。在標準激活狀態(tài)下(見1),累積的反向傳播錯誤信號不是迅速收縮,就是超出界限。實際上,他們隨著層數(shù)或CAP深度的增加,以幾何數(shù)衰減或爆炸(使得對神經(jīng)網(wǎng)絡進行有效訓練幾乎是不可能的事)。

通過時間順序扁平化BP路徑本質(zhì)上跟具有許多層的神經(jīng)網(wǎng)絡一樣,所以,用反向傳播來訓練遞歸神經(jīng)網(wǎng)絡是比較困難的。由Schmidhuber指導的Sepp Hochreiter及Yoshua Bengio都寫過文章指出,由于反向傳播的限制,學習長時間的信息是行不通的。分析問題以后其實是有解決辦法的,Schmidhuber 及 Hochreiter在1997年引進了一個十分重要的概念,這最終解決了如何訓練遞歸神經(jīng)網(wǎng)絡的問題,這就是長短期記憶(Long Short Term Memory, LSTM)。簡言之,卷積神經(jīng)網(wǎng)絡及長短期記憶的突破最終只為正常的神經(jīng)網(wǎng)絡模型帶來了一些小改動:

LSTM的基本原理十分簡單。當中有一些單位被稱為恒常誤差木馬(Constant Error Carousels, CECs)。每個CEC使用一個激活函數(shù) f,它是一個恒常函數(shù),並有一個與其自身的連接,其固定權(quán)重為1.0。由於 f 的恒常導數(shù)為1.0,通過CEC的誤差反向傳播將不會消失或爆炸(5.9節(jié)),而是保持原狀(除非它們從CEC「流出」到其他一些地方,典型的是「流到」神經(jīng)網(wǎng)絡的自適應部分)。CEC被連接到許多非線性自適應單元上(有一些單元具有乘法的激活函數(shù)),因此需要學習非線性行為。單元的權(quán)重改變經(jīng)常得益于誤差信號在時間里通過CECs往后傳播。為什么LSTM網(wǎng)絡可以學習探索發(fā)生在幾千個離散時間步驟前的事件的重要性,而之前的遞歸神經(jīng)網(wǎng)絡對于很短的時間步驟就已經(jīng)失敗了呢?CEC是最主要的原因。

但這對于解決更大的知覺問題,即神經(jīng)網(wǎng)絡比較粗糙、沒有很好的表現(xiàn)這一問題是沒有太大幫助的。用它們來工作是十分麻煩的——電腦不夠快、算法不夠聰明,人們不開心。所以在九十年代左右,對于神經(jīng)網(wǎng)絡一個新的AI寒冬開始來臨——社會對它們再次失去信心。一個新的方法,被稱為支持向量機(Support Vector Machines),得到發(fā)展并且漸漸被發(fā)現(xiàn)是優(yōu)于先前棘手的神經(jīng)網(wǎng)絡。簡單的說,支持向量機就是對一個相當于兩層的神經(jīng)網(wǎng)絡進行數(shù)學上的最優(yōu)訓練。事實上,在1995年,LeCun的一篇論文,「 Comparison of Learning Algorithms For Handwritten Digit Recognition」,就已經(jīng)討論了這個新的方法比先前較好的神經(jīng)網(wǎng)絡工作得更好,最起碼也表現(xiàn)一樣。

支持向量機分類器具有非常棒的準確率,這是最顯著的優(yōu)點,因為與其他高質(zhì)量的分類器比,它對問題不包含有先驗的知識。事實上,如果一個固定的映射被安排到圖像的像素上,這個分類器同樣會有良好的表現(xiàn)。比起卷積網(wǎng)絡,它依然很緩慢,并占用大量內(nèi)存。但由于技術(shù)仍較新,改善是可以預期的。

另外一些新的方法,特別是隨機森林(Random Forests),也被證明十分有效,并有強大的數(shù)學理論作為后盾。因此,盡管遞歸神經(jīng)網(wǎng)絡始終有不俗的表現(xiàn),但對于神經(jīng)網(wǎng)絡的熱情逐步減退,機器學習社區(qū)再次否認了它們。寒冬再次降臨。在第四部分,我們會看到一小批研究者如何在這條坎坷的道路上前行,并最終讓深度學習以今天的面貌向大眾展現(xiàn)。

參考文獻:

Anderson, C. W. (1989). Learning to control an inverted pendulum using neural networks. Control Systems Magazine, IEEE, 9(3), 31-37.?

Narendra, K. S., & Parthasarathy, K. (1990). Identification and control of dynamical systems using neural networks. Neural Networks, IEEE Transactions on, 1(1), 4-27.?

Lin, L. J. (1993). Reinforcement learning for robots using neural networks (No. CMU-CS-93-103). Carnegie-Mellon Univ Pittsburgh PA School of Computer Science.?

Tesauro, G. (1995). Temporal difference learning and TD-Gammon. Communications of the ACM, 38(3), 58-68.?

Thrun, S. (1995). Learning to play the game of chess. Advances in neural information processing systems, 7.?

Schraudolph, N. N., Dayan, P., & Sejnowski, T. J. (1994). Temporal difference learning of position evaluation in the game of Go. Advances in Neural Information Processing Systems, 817-817.?

Waibel, A., Hanazawa, T., Hinton, G., Shikano, K., & Lang, K. J. (1989). Phoneme recognition using time-delay neural networks. Acoustics, Speech and Signal Processing, IEEE Transactions on, 37(3), 328-339.?

Yann LeCun and Yoshua Bengio. 1998. Convolutional networks for images, speech, and time series. In The handbook of brain theory and neural networks, Michael A. Arbib (E()d.). MIT Press, Cambridge, MA, USA 255-258.?

Yoshua Bengio, A Connectionist Approach To Speech Recognition Int. J. Patt. Recogn. Artif. Intell., 07, 647 (1993).?

J. Schmidhuber. “Deep Learning in Neural Networks: An Overview”. “Neural Networks”, “61”, “85-117”. http://arxiv.org/abs/1404.7828?

Hochreiter, S. (1991). Untersuchungen zu dynamischen neuronalen Netzen. Diploma thesis, Institutfur Informatik, Lehrstuhl Prof. Brauer, Technische Universitat Munchen. Advisor: J. Schmidhuber.?

Bengio, Y.; Simard, P.; Frasconi, P., “Learning long-term dependencies with gradient descent is difficult,” in Neural Networks, IEEE Transactions on , vol.5, no.2, pp.157-166, Mar 1994?

Sepp Hochreiter and Jürgen Schmidhuber. 1997. Long Short-Term Memory. Neural Comput. 9, 8 (November 1997), 1735-1780. DOI=http://dx.doi.org/10.1162/neco.1997.9.8.1735.?

Y. LeCun, L. D. Jackel, L. Bottou, A. Brunot, C. Cortes, J. S. Denker, H. Drucker, I. Guyon, U. A. Muller, E. Sackinger, P. Simard and V. Vapnik: Comparison of learning algorithms for handwritten digit recognition, in Fogelman, F. and Gallinari, P. (Eds), International Conference on Artificial Neural Networks, 53-60, EC2 & Cie, Paris, 1995?

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/4347.html

相關(guān)文章

  • 從圖像到知識:深度神經(jīng)網(wǎng)絡實現(xiàn)圖像理解原理解析

    摘要:本文將詳細解析深度神經(jīng)網(wǎng)絡識別圖形圖像的基本原理。卷積神經(jīng)網(wǎng)絡與圖像理解卷積神經(jīng)網(wǎng)絡通常被用來張量形式的輸入,例如一張彩色圖象對應三個二維矩陣,分別表示在三個顏色通道的像素強度。 本文將詳細解析深度神經(jīng)網(wǎng)絡識別圖形圖像的基本原理。針對卷積神經(jīng)網(wǎng)絡,本文將詳細探討網(wǎng)絡 中每一層在圖像識別中的原理和作用,例如卷積層(convolutional layer),采樣層(pooling layer),...

    UnixAgain 評論0 收藏0
  • 緬懷那些正漸行漸遠編程語言

    摘要:為了紀念偉大的先輩程序員那能夠?qū)懗鲇肋h也無法被執(zhí)行的代碼的彪悍技能,和美國國防部創(chuàng)造了語言。曾經(jīng)是美國國防部指定的嵌入式計算機系統(tǒng)唯一開發(fā)語言,在其研發(fā)上耗資巨大。近年來年度編程語言排行來源語言會迭代升級有興衰起落。 現(xiàn)代編程語言的祖先 (1801) Joseph Marie Jacquard 用打孔卡為一臺織布機編寫指令,在掛毯上織出了hello, world字樣。當時的reddit...

    Lycheeee 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<