摘要:也就是說,損失函數(shù)是受到如下約束程序細(xì)節(jié)所以,我們的架構(gòu)看起來是如下圖這也是我想要實現(xiàn)的架構(gòu)圖表示卷積層,表示池化層,表示全連接層,層和層是我們重點要實現(xiàn)的層。
作者:chen_h
微信號 & QQ:862251340
微信公眾號:coderpai
簡書地址:https://www.jianshu.com/p/d6a...
當(dāng)我們要使用神經(jīng)網(wǎng)絡(luò)來構(gòu)建一個多分類模型時,我們一般都會采用 softmax 函數(shù)來作為最后的分類函數(shù)。softmax 函數(shù)對每一個分類結(jié)果都會分配一個概率,我們把比較高的那個概率對應(yīng)的類別作為模型的輸出。這就是為什么我們能從模型中推導(dǎo)出具體分類結(jié)果。為了訓(xùn)練模型,我們使用 softmax 函數(shù)進(jìn)行反向傳播,進(jìn)行訓(xùn)練。我們最后輸出的就是一個 0-1 向量。
在這篇文章中,我們不會去解釋什么是 softmax 回歸或者什么是 CNN。這篇文章的主要工作是如何在 TensorFlow 上面設(shè)計一個 L2 約束的 softmax 函數(shù),我們使用的數(shù)據(jù)集是 MNIST。完整的理論分析可以查看這篇論文。
在具體實現(xiàn)之前,我們先來弄清楚一些概念。
softmax 損失函數(shù)softmax 損失函數(shù)可以定義如下:
其中各個參數(shù)定義如下:
L2 約束的 softmax 損失函數(shù)帶約束的損失函數(shù)定義幾乎和之前的一樣,我們的目的還是最小化這個損失函數(shù)。
但是,我們需要對 f(x) 函數(shù)進(jìn)行修改。
我們不是直接計算最后層權(quán)重與前一層網(wǎng)絡(luò)輸出 f(x) 之間的乘積,而是對前一層的 f(x) 先做一次歸一化,然后對這個歸一化的值進(jìn)行 α 倍數(shù)的放大,最后我們進(jìn)行常規(guī)的 softmax 函數(shù)進(jìn)行計算。
也就是說,損失函數(shù)是受到如下約束:
程序細(xì)節(jié)所以,我們的架構(gòu)看起來是如下圖(這也是我想要實現(xiàn)的架構(gòu)圖):
C 表示卷積層,P 表示池化層,FC 表示全連接層,L2-Norm 層和Scale 層是我們重點要實現(xiàn)的層。
為了實現(xiàn)這個模型,我們使用這個代碼庫 進(jìn)行學(xué)習(xí)。
在應(yīng)用 dropout 之前,我們先對 N-1 層的輸出進(jìn)行正則化,然后把正則化之后的結(jié)果乘以參數(shù) alpha,然后進(jìn)行 softmax 函數(shù)計算。下面是具體的代碼展示:
fc1 = alpha * tf.divide(fc1, tf.norm(fc1, ord="euclidean"))
如果我們把 alpha 設(shè)置為 0,那么這就是常規(guī)的 softmax 函數(shù),否則就是一個 L2 約束。
完整代碼如下:
# Actual Code : https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/convolutional_network.ipynb # Modified By: Manash from __future__ import division, print_function, absolute_import # Import MNIST data from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("/tmp/data/", one_hot=False) import tensorflow as tf import matplotlib.pyplot as plt import numpy as np # Training Parameters learning_rate = 0.001 num_steps = 100 batch_size = 20 # Network Parameters num_input = 784 # MNIST data input (img shape: 28*28) num_classes = 10 # MNIST total classes (0-9 digits) dropout = 0.75 # Dropout, probability to keep units # Create the neural network def conv_net(x_dict, n_classes, dropout, reuse, is_training, alpha=5): # Define a scope for reusing the variables with tf.variable_scope("ConvNet", reuse=reuse): # TF Estimator input is a dict, in case of multiple inputs x = x_dict["images"] # MNIST data input is a 1-D vector of 784 features (28*28 pixels) # Reshape to match picture format [Height x Width x Channel] # Tensor input become 4-D: [Batch Size, Height, Width, Channel] x = tf.reshape(x, shape=[-1, 28, 28, 1]) # Convolution Layer with 32 filters and a kernel size of 5 conv1 = tf.layers.conv2d(x, 32, 5, activation=tf.nn.relu) # Max Pooling (down-sampling) with strides of 2 and kernel size of 2 conv1 = tf.layers.max_pooling2d(conv1, 2, 2) # Convolution Layer with 32 filters and a kernel size of 5 conv2 = tf.layers.conv2d(conv1, 64, 3, activation=tf.nn.relu) # Max Pooling (down-sampling) with strides of 2 and kernel size of 2 conv2 = tf.layers.max_pooling2d(conv2, 2, 2) # Flatten the data to a 1-D vector for the fully connected layer fc1 = tf.contrib.layers.flatten(conv2) # Fully connected layer (in tf contrib folder for now) fc1 = tf.layers.dense(fc1, 1024) # If alpha is not zero then perform the l2-Normalization then scaling up if alpha != 0: fc1 = alpha * tf.divide(fc1, tf.norm(fc1, ord="euclidean")) # Apply Dropout (if is_training is False, dropout is not applied) fc1 = tf.layers.dropout(fc1, rate=dropout, training=is_training) # Output layer, class prediction out = tf.layers.dense(fc1, n_classes) return out # Define the model function (following TF Estimator Template) def model_fn(features, labels, mode): # Set alpha alph = 50 # Build the neural network # Because Dropout have different behavior at training and prediction time, we # need to create 2 distinct computation graphs that still share the same weights. logits_train = conv_net(features, num_classes, dropout, reuse=False, is_training=True, alpha=alph) # At test time we don"t need to normalize or scale, it"s redundant as per paper : https://arxiv.org/abs/1703.09507 logits_test = conv_net(features, num_classes, dropout, reuse=True, is_training=False, alpha=0) # Predictions pred_classes = tf.argmax(logits_test, axis=1) pred_probas = tf.nn.softmax(logits_test) # If prediction mode, early return if mode == tf.estimator.ModeKeys.PREDICT: return tf.estimator.EstimatorSpec(mode, predictions=pred_classes) # Define loss and optimizer loss_op = tf.reduce_mean(tf.nn.sparse_softmax_cross_entropy_with_logits( logits=logits_train, labels=tf.cast(labels, dtype=tf.int32))) optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate) train_op = optimizer.minimize(loss_op, global_step=tf.train.get_global_step()) # Evaluate the accuracy of the model acc_op = tf.metrics.accuracy(labels=labels, predictions=pred_classes) # TF Estimators requires to return a EstimatorSpec, that specify # the different ops for training, evaluating, ... estim_specs = tf.estimator.EstimatorSpec( mode=mode, predictions=pred_classes, loss=loss_op, train_op=train_op, eval_metric_ops={"accuracy": acc_op}) return estim_specs # Build the Estimator model = tf.estimator.Estimator(model_fn) # Define the input function for training input_fn = tf.estimator.inputs.numpy_input_fn( x={"images": mnist.train.images}, y=mnist.train.labels, batch_size=batch_size, num_epochs=None, shuffle=False) # Train the Model model.train(input_fn, steps=num_steps) # Evaluate the Model # Define the input function for evaluating input_fn = tf.estimator.inputs.numpy_input_fn( x={"images": mnist.test.images}, y=mnist.test.labels, batch_size=batch_size, shuffle=False) # Use the Estimator "evaluate" method model.evaluate(input_fn) # Predict single images n_images = 4 # Get images from test set test_images = mnist.test.images[:n_images] # Prepare the input data input_fn = tf.estimator.inputs.numpy_input_fn( x={"images": test_images}, shuffle=False) # Use the model to predict the images class preds = list(model.predict(input_fn)) # Display for i in range(n_images): plt.imshow(np.reshape(test_images[i], [28, 28]), cmap="gray") plt.show() print("Model prediction:", preds[i])性能評估
這個真的能提高性能嗎?是的,而且效果非常好,它能提高大約 1% 的性能。我沒有計算很多的迭代,主要是我沒有很好的電腦。如果你對這個性能有你疑惑,你可以自己試試看。
以下是不同 alpha 值對應(yīng)的模型性能:
橘黃色的線表示用常規(guī)的 softmax 函數(shù),藍(lán)色的線是用 L2 約束的 softmax 函數(shù)。
算法社區(qū)直播課:請點擊這里作者:chen_h
微信號 & QQ:862251340
簡書地址:https://www.jianshu.com/p/d6a...
CoderPai 是一個專注于算法實戰(zhàn)的平臺,從基礎(chǔ)的算法到人工智能算法都有設(shè)計。如果你對算法實戰(zhàn)感興趣,請快快關(guān)注我們吧。加入AI實戰(zhàn)微信群,AI實戰(zhàn)QQ群,ACM算法微信群,ACM算法QQ群。長按或者掃描如下二維碼,關(guān)注 “CoderPai” 微信號(coderpai)
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://systransis.cn/yun/41131.html
摘要:最近,谷歌發(fā)布了一種把低分辨率圖像復(fù)原為高分辨率圖像的方法,參見機(jī)器之心文章學(xué)界谷歌新論文提出像素遞歸超分辨率利用神經(jīng)網(wǎng)絡(luò)消滅低分辨率圖像馬賽克。像素遞歸超分辨率像素獨立超分辨率方法被指出有局限性之后,它的解釋被逐漸給出。 最近,谷歌發(fā)布了一種把低分辨率圖像復(fù)原為高分辨率圖像的方法,參見機(jī)器之心文章《學(xué)界 | 谷歌新論文提出像素遞歸超分辨率:利用神經(jīng)網(wǎng)絡(luò)消滅低分辨率圖像馬賽克》。與較先進(jìn)的方...
摘要:表示元素是否放電的概率。更加具體的表示細(xì)節(jié)為注意,必須有。數(shù)據(jù)維度是四維。在大部分處理過程中,卷積核的水平移動步數(shù)和垂直移動步數(shù)是相同的,即。 作者:chen_h微信號 & QQ:862251340微信公眾號:coderpai簡書地址:https://www.jianshu.com/p/e3a... 計劃現(xiàn)將 tensorflow 中的 Python API 做一個學(xué)習(xí),這樣方便以后...
摘要:在第輪的時候,竟然跑出了的正確率綜上,借助和機(jī)器學(xué)習(xí)工具,我們只有幾十行代碼,就解決了手寫識別這樣級別的問題,而且準(zhǔn)確度可以達(dá)到如此程度。 摘要: Tensorflow入門教程1 去年買了幾本講tensorflow的書,結(jié)果今年看的時候發(fā)現(xiàn)有些樣例代碼所用的API已經(jīng)過時了??磥碜约壕S護(hù)一個保持更新的Tensorflow的教程還是有意義的。這是寫這一系列的初心??觳徒坛滔盗邢M軌虮M可...
閱讀 3157·2021-11-22 13:54
閱讀 3449·2021-11-15 11:37
閱讀 3612·2021-10-14 09:43
閱讀 3507·2021-09-09 11:52
閱讀 3612·2019-08-30 15:53
閱讀 2474·2019-08-30 13:50
閱讀 2064·2019-08-30 11:07
閱讀 897·2019-08-29 16:32