一、多層感知機(jī)簡介
創(chuàng)新互聯(lián)公司-專業(yè)網(wǎng)站定制、快速模板網(wǎng)站建設(shè)、高性價比房山網(wǎng)站開發(fā)、企業(yè)建站全套包干低至880元,成熟完善的模板庫,直接使用。一站式房山網(wǎng)站制作公司更省心,省錢,快速模板網(wǎng)站建設(shè)找我們,業(yè)務(wù)覆蓋房山地區(qū)。費(fèi)用合理售后完善,十年實(shí)體公司更值得信賴。Softmax回歸可以算是多分類問題logistic回歸,它和神經(jīng)網(wǎng)絡(luò)的大區(qū)別是沒有隱含層。理論上只要隱含節(jié)點(diǎn)足夠多,即時只有一個隱含層的神經(jīng)網(wǎng)絡(luò)也可以擬合任意函數(shù),同時隱含層越多,越容易擬合復(fù)雜結(jié)構(gòu)。為了擬合復(fù)雜函數(shù)需要的隱含節(jié)點(diǎn)的數(shù)目,基本上隨著隱含層的數(shù)量增多呈指數(shù)下降的趨勢,也就是說層數(shù)越多,神經(jīng)網(wǎng)絡(luò)所需要的隱含節(jié)點(diǎn)可以越少。層數(shù)越深,概念越抽象,需要背誦的知識點(diǎn)就越少。在實(shí)際應(yīng)用中,深層神經(jīng)網(wǎng)絡(luò)會遇到許多困難,如過擬合、參數(shù)調(diào)試、梯度彌散等。
過擬合是機(jī)器學(xué)習(xí)中的一個常見問題,是指模型預(yù)測準(zhǔn)確率在訓(xùn)練集上升高,但是在測試集上的準(zhǔn)確率反而下降,這通常意味著模型的泛化能力不好,過度擬合了訓(xùn)練集。針對這個問題,Hinton教授團(tuán)隊(duì)提出了Dropout的解決辦法,在使用CNN訓(xùn)練圖像數(shù)據(jù)時效果尤其有效,其大體思路是在訓(xùn)練時將神經(jīng)網(wǎng)絡(luò)某一層的輸出節(jié)點(diǎn)數(shù)據(jù)隨機(jī)丟失一部分。這種做法實(shí)質(zhì)上等于創(chuàng)造出了許多新的隨機(jī)樣本,通過增大樣本量、減少特征數(shù)量來防止過擬合。
參數(shù)調(diào)試問題尤其是SGD(StochasticGradient Descent)的參數(shù),對SGD設(shè)置不同的學(xué)習(xí)率learning rate,最后得到的結(jié)果可能差異巨大。神經(jīng)網(wǎng)絡(luò)的優(yōu)化通常不是一個簡單的凸優(yōu)化問題,它處處充滿了局部最優(yōu)。有理論表示,神經(jīng)網(wǎng)絡(luò)可能有很多個局部最優(yōu)解都可以達(dá)到比較好的分類效果,而全局最優(yōu)很可能造成過擬合。對SGD,我們希望一開始學(xué)習(xí)率大一些,加速收斂,在訓(xùn)練的后期又希望學(xué)習(xí)率小一些,這樣可以低速進(jìn)入一個局部最優(yōu)解。不同的機(jī)器學(xué)習(xí)問題的學(xué)習(xí)率設(shè)置也需要針對性的調(diào)試,像Adagrad、Adam、Adadelta等自適應(yīng)的方法可以減輕調(diào)試參數(shù)的負(fù)擔(dān)。對于這些優(yōu)化算法,通常我們使用其默認(rèn)的參數(shù)設(shè)置就可以得到比較好的效果。
梯度彌散(Gradient Vanishment)是另一個影響深層神經(jīng)網(wǎng)絡(luò)訓(xùn)練的問題,在ReLU激活函數(shù)出現(xiàn)之前,神經(jīng)網(wǎng)絡(luò)訓(xùn)練是使用Sigmoid作為激活函數(shù)。非線性的Sigmoid函數(shù)在信號的特征空間映射上,對中央?yún)^(qū)的信號增益較大,對兩側(cè)區(qū)的信號增益小。當(dāng)神經(jīng)網(wǎng)絡(luò)層數(shù)較多時,Sigmoid函數(shù)在反向傳播中梯度值會逐漸減小,到達(dá)前面幾層的梯度值就變得非常小了,在神經(jīng)網(wǎng)絡(luò)訓(xùn)練的時候,前面幾層的神經(jīng)網(wǎng)絡(luò)參數(shù)幾乎得不到訓(xùn)練更新。指導(dǎo)ReLU,y = max(0, x),的出現(xiàn)才比較完美的解決了梯度彌散的問題。信號在超過某個閾值時,神經(jīng)元才會進(jìn)入興奮和激活的狀態(tài),否則會處于抑制狀態(tài)。ReLU可以很好的反向傳遞梯度,經(jīng)過多層的梯度反向傳播,梯度依舊不會大幅減小,因此非常適合深層神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。ReLU對比于Sigmoid的主要特點(diǎn)有以下幾點(diǎn):(1)單側(cè)抑制;(2)相對寬闊的興奮邊界;(3)稀疏激活性。目前,ReLU及其變種EIU、PReLU、RReLU已經(jīng)成為最主流的激活函數(shù)。實(shí)踐中大部分情況下(包括MLP、CNN、RNN)將隱含層的激活函數(shù)從Sigmoid替換為ReLU都可以帶來訓(xùn)練速度和模型準(zhǔn)確率的提升。當(dāng)然神經(jīng)網(wǎng)絡(luò)的輸出層一般都是Sigmoid函數(shù),因?yàn)樗罱咏怕瘦敵龇植肌?/p>
二、TensorFlow實(shí)現(xiàn)過程
完整代碼:
import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) in_units = 784 #輸入節(jié)點(diǎn)數(shù) h2_units = 300 #隱含層節(jié)點(diǎn)數(shù) W1 = tf.Variable(tf.truncated_normal([in_units, h2_units], stddev=0.1)) #初始化隱含層權(quán)重W1,服從默認(rèn)均值為0,標(biāo)準(zhǔn)差為0.1的截斷正態(tài)分布 b1 = tf.Variable(tf.zeros([h2_units])) #隱含層偏置b1全部初始化為0 W2 = tf.Variable(tf.zeros([h2_units, 10])) b2 = tf.Variable(tf.zeros([10])) x = tf.placeholder(tf.float32, [None, in_units]) keep_prob = tf.placeholder(tf.float32) #Dropout失活率 #定義模型結(jié)構(gòu) hidden1 = tf.nn.relu(tf.matmul(x, W1) + b1) hidden1_drop = tf.nn.dropout(hidden1, keep_prob) y = tf.nn.softmax(tf.matmul(hidden1_drop, W2) + b2) #訓(xùn)練部分 y_ = tf.placeholder(tf.float32, [None, 10]) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) train_step = tf.train.AdagradOptimizer(0.3).minimize(cross_entropy) #定義一個InteractiveSession會話并初始化全部變量 sess = tf.InteractiveSession() tf.global_variables_initializer().run() correct_prediction = tf.equal(tf.arg_max(y, 1), tf.arg_max(y_, 1)) accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32)) for i in range(3001): batch_xs, batch_ys = mnist.train.next_batch(100) train_step.run({x: batch_xs, y_: batch_ys, keep_prob: 0.75}) if i % 200 ==0: #訓(xùn)練過程每200步在測試集上驗(yàn)證一下準(zhǔn)確率,動態(tài)顯示訓(xùn)練過程 print(i, 'training_arruracy:', accuracy.eval({x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0})) print('final_accuracy:', accuracy.eval({x: mnist.test.images, y_: mnist.test.labels, keep_prob: 1.0}))
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
名稱欄目:TensorFlow實(shí)現(xiàn)MLP多層感知機(jī)模型-創(chuàng)新互聯(lián)
標(biāo)題路徑:http://jinyejixie.com/article22/coisjc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設(shè)計、手機(jī)網(wǎng)站建設(shè)、網(wǎng)站策劃、企業(yè)網(wǎng)站制作、標(biāo)簽優(yōu)化、響應(yīng)式網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容