成人国产在线小视频_日韩寡妇人妻调教在线播放_色成人www永久在线观看_2018国产精品久久_亚洲欧美高清在线30p_亚洲少妇综合一区_黄色在线播放国产_亚洲另类技巧小说校园_国产主播xx日韩_a级毛片在线免费

資訊專欄INFORMATION COLUMN

卷積神經(jīng)網(wǎng)絡架構詳解:它與神經(jīng)網(wǎng)絡有何不同?

HackerShell / 3832人閱讀

摘要:較大池化一個卷積神經(jīng)網(wǎng)絡的典型架構卷積神經(jīng)網(wǎng)絡的典型架構我們已經(jīng)討論過卷積層用表示和池化層用表示只是一個被應用的非線性特征,類似于神經(jīng)網(wǎng)絡。

這是作者在 Medium 上介紹神經(jīng)網(wǎng)絡系列文章中的一篇,他在這里詳細介紹了卷積神經(jīng)網(wǎng)絡。卷積神經(jīng)網(wǎng)絡在圖像識別、視頻識別、推薦系統(tǒng)以及自然語言處理中都有很廣的應用。如果想瀏覽該系列文章,可點擊閱讀原文查看原文網(wǎng)址。

跟神經(jīng)網(wǎng)絡一樣,卷積神經(jīng)網(wǎng)絡由神經(jīng)元構成,這些神經(jīng)元帶有可學習的權重和偏差(bias)。每個神經(jīng)元接收若干輸入,并對輸入進行加權求和,然后通過一個激活功能將它們傳遞出去,再用一個輸出作為反應。整個神經(jīng)網(wǎng)絡有一個損失函數(shù),我們?yōu)樯窠?jīng)網(wǎng)絡開發(fā)的所有貼士和技巧,仍然適用于卷積神經(jīng)網(wǎng)絡。

那么,卷積神經(jīng)網(wǎng)絡是怎么不同于神經(jīng)網(wǎng)絡的呢?

卷積神經(jīng)網(wǎng)絡運行過量

這是什么意思?

1.一個 RGB 圖像的例子(稱它為『輸入圖像』)

在神經(jīng)網(wǎng)絡中,輸入是一個向量,但是在卷積神經(jīng)網(wǎng)絡中,輸入是一個多通道圖像(這個例子中的圖像有 3 個通道)。

卷積

2.用濾波器來卷積圖像

我們用了一個 5×3×5 的濾波器在整個圖像上滑動,在滑動過程中,采集在濾波器與輸入圖像的塊之間的點積。

3.看上去就是這樣子

對于采集到的每個點積來說,其結果都是一個標量。

所以當我們用這個濾波器卷積一個完整的圖像時會發(fā)生什么呢?

4.就是這個!

你可以自己想想這個『 28 』是怎么來的。(提示:有 28×28 個獨特的位置,在這些位置上,濾波器可以被放在這個圖像上)

現(xiàn)在,回到卷積神經(jīng)網(wǎng)絡

這個卷積層是卷積神經(jīng)網(wǎng)絡的主構建塊。

5.卷積層

卷積層包括一組獨立的濾波器(該例子中有 6 個)。每個濾波器都獨立地與圖像卷積,我們以 6 個形狀為 28×1×28 的特征圖結束。

假設我們有一個序列卷積層。那么會發(fā)生什么呢?

6.序列卷基層

所有這些濾波器都被隨機初始化,并成為我們的參數(shù),隨后將被這個網(wǎng)絡學習。

下面是一個訓練過的網(wǎng)絡的例子:

7.一個訓練過的網(wǎng)絡中的濾波器

看下最表層的濾波器(這些都是我們的5×3×5 的濾波器。)通過反向傳播,他們將自己調(diào)整為彩色片和邊緣的斑點。在我們深入到其他卷積層時,這些濾波器在做之前的卷積層的輸入的點積。所以,它們正在采集這些較小的彩色片或邊緣,并通過這些小的彩色片和邊緣做出較大的彩色片。

看看圖 4 ,并將這個 28×1×28 的網(wǎng)格想象成 28×28 個神經(jīng)元。對于一個特定的特征圖來說(在卷積帶有一個濾波器的圖像上接受的輸出被稱為一個特征圖),每個神經(jīng)元只連接這個輸入圖像的一小塊,而且所有的神經(jīng)元都具有相同的連接權重。因此,再次回到卷積神經(jīng)網(wǎng)絡和神經(jīng)網(wǎng)絡之間的差異。

卷積神經(jīng)網(wǎng)絡的一對概念:參數(shù)共享和局部連通性

參數(shù)共享,通過一張?zhí)囟ǖ奶卣鲌D中所有神經(jīng)元來共享權重。

局部連通性的概念是每個神經(jīng)只連接一個輸入圖像的子集(不像神經(jīng)網(wǎng)絡中的所有神經(jīng)元都完全連接在一起)。

這幫助減少了整個系統(tǒng)中的參數(shù)數(shù)量,讓計算變得更有效。

為了簡單一些,這里不討論零填充(zero padding)的概念。有興趣的可以自己去閱讀相關資料。

池化層

一個池化層是卷積神經(jīng)網(wǎng)絡的另一個構建塊

池化

它的功能是通過逐步減小表征的空間尺寸來減小參數(shù)量和網(wǎng)絡中的計算。池化層在每一個特征圖上獨立操作。

較大池化

一個卷積神經(jīng)網(wǎng)絡的典型架構

卷積神經(jīng)網(wǎng)絡的典型架構

我們已經(jīng)討論過卷積層(用 CONY 表示)和池化層(用 POOL 表示)

RELU 只是一個被應用的非線性特征,類似于神經(jīng)網(wǎng)絡。

這個 FC 與神經(jīng)元層完全相連在卷積神經(jīng)網(wǎng)絡的末端。完全連接層中的神經(jīng)元連接著之前層中的所有激活,這在常規(guī)的神經(jīng)網(wǎng)絡中能看到,并以相似的方式運行。

希望你現(xiàn)在能理解一個卷積神經(jīng)網(wǎng)絡的這種架構了。這種架構還要很多變體,但是之前提到過,基本的概念都是相同。

歡迎加入本站公開興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識

QQ群:81035754

文章版權歸作者所有,未經(jīng)允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉載請注明本文地址:http://systransis.cn/yun/4366.html

相關文章

  • 像玩樂高一樣拆解Faster R-CNN:詳解目標檢測的實現(xiàn)過程

    摘要:這一切始于年的一篇論文,其使用了稱為的算法用來提取感興趣候選區(qū)域,并用一個標準的卷積神經(jīng)網(wǎng)絡去分類和調(diào)整這些區(qū)域。 本文詳細解釋了 Faster R-CNN 的網(wǎng)絡架構和工作流,一步步帶領讀者理解目標檢測的工作原理,作者本人也提供了 Luminoth 實現(xiàn),供大家參考。Luminoth 實現(xiàn):https://github.com/tryolabs/luminoth/tree/master/l...

    taoszu 評論0 收藏0
  • 徒手實現(xiàn)CNN:綜述論文詳解卷積網(wǎng)絡的數(shù)學本質(zhì)

    摘要:本論文將嘗試概述卷積網(wǎng)絡的架構,并解釋包含激活函數(shù)損失函數(shù)前向傳播和反向傳播的數(shù)學推導。本文試圖只考慮帶有梯度下降優(yōu)化的典型卷積神經(jīng)網(wǎng)絡架構的制定。 近日南洋理工大學研究者發(fā)布了一篇描述卷積網(wǎng)絡數(shù)學原理的論文,該論文從數(shù)學的角度闡述整個卷積網(wǎng)絡的運算與傳播過程。該論文對理解卷積網(wǎng)絡的數(shù)學本質(zhì)非常有幫助,有助于讀者「徒手」(不使用卷積API)實現(xiàn)卷積網(wǎng)絡。論文地址:https://arxiv....

    eternalshallow 評論0 收藏0
  • [ResNet系] 004 WRN

    摘要:顯示了殘差連接可以加速深層網(wǎng)絡的收斂速度,考察了殘差網(wǎng)絡中激活函數(shù)的位置順序,顯示了恒等映射在殘差網(wǎng)絡中的重要性,并且利用新的架構可以訓練極深層的網(wǎng)絡。包含恒等映射的殘差有助于訓練極深層網(wǎng)絡,但同時也是殘差網(wǎng)絡的一個缺點。 WRN Wide Residual NetworksSergey Zagoruyko, Nikos Komodakis Caffe實現(xiàn):https://github...

    hankkin 評論0 收藏0
  • 「深」到什么程度才能稱得上是「深度」學習呢?

    摘要:考慮到這一點,我們將這種方法稱為深度學習。這使我們回到原來的問題上我們不是因為深度模型而將其稱為深度學習。這意味著具有個完全連接的層并且只有完全連接的層的神經(jīng)網(wǎng)絡將不再是深度學習模型,而某些具有少量卷積層的網(wǎng)絡卻可以稱為深度學習。 不管你是業(yè)內(nèi)人士還是業(yè)外人士,在人工智能以燎原之勢發(fā)展的今天,相信對于AI、機器學習、深度學習這些詞匯,你或多或都有一定的了解,而其中作為人工智能前沿的深度學習,...

    fsmStudy 評論0 收藏0

發(fā)表評論

0條評論

HackerShell

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<