這篇文章將為大家詳細講解有關(guān)Python實現(xiàn)Keras搭建神經(jīng)網(wǎng)絡(luò)訓(xùn)練分類模型的方法,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設(shè),洪山企業(yè)網(wǎng)站建設(shè),洪山品牌網(wǎng)站建設(shè),網(wǎng)站定制,洪山網(wǎng)站建設(shè)報價,網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,洪山網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。注釋講解版:
# Classifier example import numpy as np # for reproducibility np.random.seed(1337) # from keras.datasets import mnist from keras.utils import np_utils from keras.models import Sequential from keras.layers import Dense, Activation from keras.optimizers import RMSprop # 程序中用到的數(shù)據(jù)是經(jīng)典的手寫體識別mnist數(shù)據(jù)集 # download the mnist to the path if it is the first time to be called # X shape (60,000 28x28), y # (X_train, y_train), (X_test, y_test) = mnist.load_data() # 下載minst.npz: # 鏈接: https://pan.baidu.com/s/1b2ppKDOdzDJxivgmyOoQsA # 提取碼: y5ir # 將下載好的minst.npz放到當(dāng)前目錄下 path='./mnist.npz' f = np.load(path) X_train, y_train = f['x_train'], f['y_train'] X_test, y_test = f['x_test'], f['y_test'] f.close() # data pre-processing # 數(shù)據(jù)預(yù)處理 # normalize # X shape (60,000 28x28),表示輸入數(shù)據(jù) X 是個三維的數(shù)據(jù) # 可以理解為 60000行數(shù)據(jù),每一行是一張28 x 28 的灰度圖片 # X_train.reshape(X_train.shape[0], -1)表示:只保留第一維,其余的緯度,不管多少緯度,重新排列為一維 # 參數(shù)-1就是不知道行數(shù)或者列數(shù)多少的情況下使用的參數(shù) # 所以先確定除了參數(shù)-1之外的其他參數(shù),然后通過(總參數(shù)的計算) / (確定除了參數(shù)-1之外的其他參數(shù)) = 該位置應(yīng)該是多少的參數(shù) # 這里用-1是偷懶的做法,等同于 28*28 # reshape后的數(shù)據(jù)是:共60000行,每一行是784個數(shù)據(jù)點(feature) # 輸入的 x 變成 60,000*784 的數(shù)據(jù),然后除以 255 進行標準化 # 因為每個像素都是在 0 到 255 之間的,標準化之后就變成了 0 到 1 之間 X_train = X_train.reshape(X_train.shape[0], -1) / 255 X_test = X_test.reshape(X_test.shape[0], -1) / 255 # 分類標簽編碼 # 將y轉(zhuǎn)化為one-hot vector y_train = np_utils.to_categorical(y_train, num_classes = 10) y_test = np_utils.to_categorical(y_test, num_classes = 10) # Another way to build your neural net # 建立神經(jīng)網(wǎng)絡(luò) # 應(yīng)用了2層的神經(jīng)網(wǎng)絡(luò),前一層的激活函數(shù)用的是relu,后一層的激活函數(shù)用的是softmax #32是輸出的維數(shù) model = Sequential([ Dense(32, input_dim=784), Activation('relu'), Dense(10), Activation('softmax') ]) # Another way to define your optimizer # 優(yōu)化函數(shù) # 優(yōu)化算法用的是RMSprop rmsprop = RMSprop(lr=0.001, rho=0.9, epsilon=1e-08, decay=0.0) # We add metrics to get more results you want to see # 不自己定義,直接用內(nèi)置的優(yōu)化器也行,optimizer='rmsprop' #激活模型:接下來用 model.compile 激勵神經(jīng)網(wǎng)絡(luò) model.compile( optimizer=rmsprop, loss='categorical_crossentropy', metrics=['accuracy'] ) print('Training------------') # Another way to train the model # 訓(xùn)練模型 # 上一個程序是用train_on_batch 一批一批的訓(xùn)練 X_train, Y_train # 默認的返回值是 cost,每100步輸出一下結(jié)果 # 輸出的樣式與上一個程序的有所不同,感覺用model.fit()更清晰明了 # 上一個程序是Python實現(xiàn)Keras搭建神經(jīng)網(wǎng)絡(luò)訓(xùn)練回歸模型: # https://blog.csdn.net/weixin_45798684/article/details/106503685 model.fit(X_train, y_train, nb_epoch=2, batch_size=32) print('\nTesting------------') # Evaluate the model with the metrics we defined earlier # 測試 loss, accuracy = model.evaluate(X_test, y_test) print('test loss:', loss) print('test accuracy:', accuracy)
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
網(wǎng)站標題:Python實現(xiàn)Keras搭建神經(jīng)網(wǎng)絡(luò)訓(xùn)練分類模型的方法-創(chuàng)新互聯(lián)
當(dāng)前網(wǎng)址:http://jinyejixie.com/article30/dcjspo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供App開發(fā)、搜索引擎優(yōu)化、面包屑導(dǎo)航、網(wǎng)站改版、網(wǎng)站排名、全網(wǎng)營銷推廣
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容