使用Keras畫神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性圖教程
1.在搭建網(wǎng)絡(luò)開始時,會調(diào)用到 keras.models的Sequential()方法,返回一個model參數(shù)表示模型
2.model參數(shù)里面有個fit()方法,用于把訓(xùn)練集傳進網(wǎng)絡(luò)。fit()返回一個參數(shù),該參數(shù)包含訓(xùn)練集和驗證集的準(zhǔn)確性acc和錯誤值loss,用這些數(shù)據(jù)畫成圖表即可。
如:
history=model.fit(x_train, y_train, batch_size=32, epochs=5, validation_split=0.25) #獲取數(shù)據(jù) #########畫圖 acc = history.history['acc'] #獲取訓(xùn)練集準(zhǔn)確性數(shù)據(jù) val_acc = history.history['val_acc'] #獲取驗證集準(zhǔn)確性數(shù)據(jù) loss = history.history['loss'] #獲取訓(xùn)練集錯誤值數(shù)據(jù) val_loss = history.history['val_loss'] #獲取驗證集錯誤值數(shù)據(jù) epochs = range(1,len(acc)+1) plt.plot(epochs,acc,'bo',label='Trainning acc') #以epochs為橫坐標(biāo),以訓(xùn)練集準(zhǔn)確性為縱坐標(biāo) plt.plot(epochs,val_acc,'b',label='Vaildation acc') #以epochs為橫坐標(biāo),以驗證集準(zhǔn)確性為縱坐標(biāo) plt.legend() #繪制圖例,即標(biāo)明圖中的線段代表何種含義 plt.figure() #創(chuàng)建一個新的圖表 plt.plot(epochs,loss,'bo',label='Trainning loss') plt.plot(epochs,val_loss,'b',label='Vaildation loss') plt.legend() ##繪制圖例,即標(biāo)明圖中的線段代表何種含義 plt.show() #顯示所有圖表
得到效果:

完整代碼:
import keras
from keras.datasets import mnist
from keras.layers import Conv2D, MaxPool2D, Dense, Flatten,Dropout
from keras.models import Sequential
import matplotlib.pyplot as plt
(x_train, y_train), (x_test, y_test) = mnist.load_data()
x_train = x_train.reshape(-1, 28, 28, 1)
x_test = x_test.reshape(-1, 28, 28, 1)
x_train = x_train / 255.
x_test = x_test / 255.
y_train = keras.utils.to_categorical(y_train)
y_test = keras.utils.to_categorical(y_test)
model = Sequential()
model.add(Conv2D(20,(5,5),strides=(1,1),input_shape=(28,28,1),padding='valid',activation='relu',kernel_initializer='uniform'))
model.add(MaxPool2D(pool_size=(2,2),strides=(2,2)))
model.add(Conv2D(64,(5,5),strides=(1,1),padding='valid',activation='relu',kernel_initializer='uniform'))
model.add(MaxPool2D(pool_size=(2,2),strides=(2,2)))
model.add(Flatten())
model.add(Dense(500,activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(10,activation='softmax'))
model.compile('sgd', loss='categorical_crossentropy', metrics=['accuracy']) #隨機梯度下降
history=model.fit(x_train, y_train, batch_size=32, epochs=5, validation_split=0.25) #獲取數(shù)據(jù)
#########畫圖
acc = history.history['acc'] #獲取訓(xùn)練集準(zhǔn)確性數(shù)據(jù)
val_acc = history.history['val_acc'] #獲取驗證集準(zhǔn)確性數(shù)據(jù)
loss = history.history['loss'] #獲取訓(xùn)練集錯誤值數(shù)據(jù)
val_loss = history.history['val_loss'] #獲取驗證集錯誤值數(shù)據(jù)
epochs = range(1,len(acc)+1)
plt.plot(epochs,acc,'bo',label='Trainning acc') #以epochs為橫坐標(biāo),以訓(xùn)練集準(zhǔn)確性為縱坐標(biāo)
plt.plot(epochs,val_acc,'b',label='Vaildation acc') #以epochs為橫坐標(biāo),以驗證集準(zhǔn)確性為縱坐標(biāo)
plt.legend() #繪制圖例,即標(biāo)明圖中的線段代表何種含義
plt.figure() #創(chuàng)建一個新的圖表
plt.plot(epochs,loss,'bo',label='Trainning loss')
plt.plot(epochs,val_loss,'b',label='Vaildation loss')
plt.legend() ##繪制圖例,即標(biāo)明圖中的線段代表何種含義
以上這篇使用Keras畫神經(jīng)網(wǎng)絡(luò)準(zhǔn)確性圖教程就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python中使用dwebsocket實現(xiàn)后端數(shù)據(jù)實時刷新
dwebsocket是Python中一款用于實現(xiàn)WebSocket協(xié)議的庫,可用于后端數(shù)據(jù)實時刷新。在Django中結(jié)合使用dwebsocket和Channels,可以實現(xiàn)前后端的實時通信,支持雙向數(shù)據(jù)傳輸和消息推送,適用于實時聊天、數(shù)據(jù)監(jiān)控、在線游戲等場景2023-04-04
利用Pytorch實現(xiàn)ResNet網(wǎng)絡(luò)構(gòu)建及模型訓(xùn)練
這篇文章主要為大家介紹了利用Pytorch實現(xiàn)ResNet網(wǎng)絡(luò)構(gòu)建及模型訓(xùn)練詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-04-04
Python關(guān)于抽獎系統(tǒng)的思考與設(shè)計思路
這篇文章主要介紹了Python關(guān)于抽獎系統(tǒng)的思考與設(shè)計思路,本文通過一些簡單的例子來說一說抽獎系統(tǒng)背后的邏輯,看看究竟是你運氣不好還是系統(tǒng)邏輯在作怪,需要的朋友可以參考下2023-03-03

