由淺入深學(xué)習(xí)TensorFlow MNIST 數(shù)據(jù)集
MNIST 數(shù)據(jù)集介紹
MNIST 包含 0~9 的手寫數(shù)字, 共有 60000 個(gè)訓(xùn)練集和 10000 個(gè)測試集. 數(shù)據(jù)的格式為單通道 28*28 的灰度圖.
LeNet 模型介紹
LeNet 網(wǎng)絡(luò)最早由紐約大學(xué)的 Yann LeCun 等人于 1998 年提出, 也稱 LeNet5. LeNet 是神經(jīng)網(wǎng)絡(luò)的鼻祖, 被譽(yù)為卷積神經(jīng)網(wǎng)絡(luò)的 “Hello World”.
卷積
池化 (下采樣)
激活函數(shù) (ReLU)
LeNet 逐層分析
1. 第一個(gè)卷積層
2. 第一個(gè)池化層
3. 第二個(gè)卷積層
4. 第二個(gè)池化層
5. 全連接卷積層
6. 全連接層
7. 全連接層 (輸出層)
代碼實(shí)現(xiàn)
導(dǎo)包
from tensorflow.keras.datasets import mnist from matplotlib import pyplot as plt import numpy as np import tensorflow as tf
讀取 & 查看數(shù)據(jù)
# ------------------1. 讀取 & 查看數(shù)據(jù)------------------ # 讀取數(shù)據(jù) (X_train, y_train), (X_test, y_test) = mnist.load_data() # 數(shù)據(jù)集查看 print(X_train.shape) # (60000, 28, 28) print(y_train.shape) # (60000,) print(X_test.shape) # (10000, 28, 28) print(y_test.shape) # (10000,) print(type(X_train)) # <class 'numpy.ndarray'> # 圖片顯示 plt.imshow(X_train[0], cmap="Greys") # 查看第一張圖片 plt.show()
數(shù)據(jù)預(yù)處理
# ------------------2. 數(shù)據(jù)預(yù)處理------------------ # 格式轉(zhuǎn)換 (將圖片從28*28擴(kuò)充為32*32) X_train = np.pad(X_train, ((0, 0), (2, 2), (2, 2)), "constant", constant_values=0) X_test = np.pad(X_test, ((0, 0), (2, 2), (2, 2)), "constant", constant_values=0) print(X_train.shape) # (60000, 32, 32) print(X_test.shape) # (10000, 32, 32) # 數(shù)據(jù)集格式變換 X_train = X_train.astype(np.float32) X_test = X_test.astype(np.float32) # 數(shù)據(jù)正則化 X_train /= 255 X_test /= 255 # 數(shù)據(jù)維度轉(zhuǎn)換 X_train = np.expand_dims(X_train, axis=-1) X_test = np.expand_dims(X_test, axis=-1) print(X_train.shape) # (60000, 32, 32, 1) print(X_test.shape) # (10000, 32, 32, 1)
模型建立
# 第一個(gè)卷積層 conv_layer_1 = tf.keras.layers.Conv2D(filters=6, kernel_size=(5, 5), padding="valid", activation=tf.nn.relu) # 第一個(gè)池化層 pool_layer_1 = tf.keras.layers.MaxPool2D(pool_size=(2, 2), padding="same") # 第二個(gè)卷積層 conv_layer_2 = tf.keras.layers.Conv2D(filters=16, kernel_size=(5, 5), padding="valid", activation=tf.nn.relu) # 第二個(gè)池化層 pool_layer_2 = tf.keras.layers.MaxPool2D(padding="same") # 扁平化 flatten = tf.keras.layers.Flatten() # 第一個(gè)全連接層 fc_layer_1 = tf.keras.layers.Dense(units=120, activation=tf.nn.relu) # 第二個(gè)全連接層 fc_layer_2 = tf.keras.layers.Dense(units=84, activation=tf.nn.softmax) # 輸出層 output_layer = tf.keras.layers.Dense(units=10, activation=tf.nn.softmax)
卷積 Conv2D 的用法:
- filters: 卷積核個(gè)數(shù)
- kernel_size: 卷積核大小
- strides = (1, 1): 步長
- padding = “vaild”: valid 為舍棄, same 為補(bǔ)齊
- activation = tf.nn.relu: 激活函數(shù)
- data_format = None: 默認(rèn) channels_last
池化 AveragePooling2D 的用法:
- pool_size: 池的大小
- strides = (1, 1): 步長
- padding = “vaild”: valid 為舍棄, same 為補(bǔ)齊
- activation = tf.nn.relu: 激活函數(shù)
- data_format = None: 默認(rèn) channels_last
全連接 Dense 的用法:
- units: 輸出的維度
- activation: 激活函數(shù)
- strides = (1, 1): 步長
- padding = “vaild”: valid 為舍棄, same 為補(bǔ)齊
- activation = tf.nn.relu: 激活函數(shù)
- data_format = None: 默認(rèn) channels_last
# 模型實(shí)例化 model = tf.keras.models.Sequential([ tf.keras.layers.Conv2D(filters=6, kernel_size=(5, 5), padding='valid', activation=tf.nn.relu, input_shape=(32, 32, 1)), # relu tf.keras.layers.AveragePooling2D(pool_size=(2, 2), strides=(2, 2), padding='same'), tf.keras.layers.Conv2D(filters=16, kernel_size=(5, 5), padding='valid', activation=tf.nn.relu), tf.keras.layers.AveragePooling2D(pool_size=(2, 2), strides=(2, 2), padding='same'), tf.keras.layers.Flatten(), tf.keras.layers.Dense(units=120, activation=tf.nn.relu), tf.keras.layers.Dense(units=84, activation=tf.nn.relu), tf.keras.layers.Dense(units=10, activation=tf.nn.softmax) ]) # 模型展示 model.summary()
輸出結(jié)果:
訓(xùn)練模型
# ------------------4. 訓(xùn)練模型------------------ # 設(shè)置超參數(shù) num_epochs = 10 # 訓(xùn)練輪數(shù) batch_size = 1000 # 批次大小 learning_rate = 0.001 # 學(xué)習(xí)率
# 定義優(yōu)化器 adam_optimizer = tf.keras.optimizers.Adam(learning_rate) model.compile(optimizer=adam_optimizer,loss=tf.keras.losses.sparse_categorical_crossentropy,metrics=['accuracy'])
complie 的用法:
- optimizer: 優(yōu)化器
- loss: 損失函數(shù)
- metrics: 評(píng)價(jià)
with tf.Session() as sess: # 初始化所有變量 init = tf.global_variables_initializer() sess.run(init) model.fit(x=X_train,y=y_train,batch_size=batch_size,epochs=num_epochs) # 評(píng)估指標(biāo) print(model.evaluate(X_test, y_test)) # loss value & metrics values
輸出結(jié)果:
fit 的用法:
- x: 訓(xùn)練集
- y: 測試集
- batch_size: 批次大小
- enpochs: 訓(xùn)練遍數(shù)
保存模型
# ------------------5. 保存模型------------------ model.save('lenet_model.h5')
流程總結(jié)
完整代碼
from tensorflow.keras.datasets import mnist from matplotlib import pyplot as plt import numpy as np import tensorflow as tf # ------------------1. 讀取 & 查看數(shù)據(jù)------------------ # 讀取數(shù)據(jù) (X_train, y_train), (X_test, y_test) = mnist.load_data() # 數(shù)據(jù)集查看 print(X_train.shape) # (60000, 28, 28) print(y_train.shape) # (60000,) print(X_test.shape) # (10000, 28, 28) print(y_test.shape) # (10000,) print(type(X_train)) # <class 'numpy.ndarray'> # 圖片顯示 plt.imshow(X_train[0], cmap="Greys") # 查看第一張圖片 plt.show() # ------------------2. 數(shù)據(jù)預(yù)處理------------------ # 格式轉(zhuǎn)換 (將圖片從28*28擴(kuò)充為32*32) X_train = np.pad(X_train, ((0, 0), (2, 2), (2, 2)), "constant", constant_values=0) X_test = np.pad(X_test, ((0, 0), (2, 2), (2, 2)), "constant", constant_values=0) print(X_train.shape) # (60000, 32, 32) print(X_test.shape) # (10000, 32, 32) # 數(shù)據(jù)集格式變換 X_train = X_train.astype(np.float32) X_test = X_test.astype(np.float32) # 數(shù)據(jù)正則化 X_train /= 255 X_test /= 255 # 數(shù)據(jù)維度轉(zhuǎn)換 X_train = np.expand_dims(X_train, axis=-1) X_test = np.expand_dims(X_test, axis=-1) print(X_train.shape) # (60000, 32, 32, 1) print(X_test.shape) # (10000, 32, 32, 1) # ------------------3. 模型建立------------------ # 第一個(gè)卷積層 conv_layer_1 = tf.keras.layers.Conv2D(filters=6, kernel_size=(5, 5), padding="valid", activation=tf.nn.relu) # 第一個(gè)池化層 pool_layer_1 = tf.keras.layers.MaxPool2D(pool_size=(2, 2), padding="same") # 第二個(gè)卷積層 conv_layer_2 = tf.keras.layers.Conv2D(filters=16, kernel_size=(5, 5), padding="valid", activation=tf.nn.relu) # 第二個(gè)池化層 pool_layer_2 = tf.keras.layers.MaxPool2D(padding="same") # 扁平化 flatten = tf.keras.layers.Flatten() # 第一個(gè)全連接層 fc_layer_1 = tf.keras.layers.Dense(units=120, activation=tf.nn.relu) # 第二個(gè)全連接層 fc_layer_2 = tf.keras.layers.Dense(units=84, activation=tf.nn.softmax) # 輸出層 output_layer = tf.keras.layers.Dense(units=10, activation=tf.nn.softmax) # 模型實(shí)例化 model = tf.keras.models.Sequential([ tf.keras.layers.Conv2D(filters=6, kernel_size=(5, 5), padding='valid', activation=tf.nn.relu, input_shape=(32, 32, 1)), # relu tf.keras.layers.AveragePooling2D(pool_size=(2, 2), strides=(2, 2), padding='same'), tf.keras.layers.Conv2D(filters=16, kernel_size=(5, 5), padding='valid', activation=tf.nn.relu), tf.keras.layers.AveragePooling2D(pool_size=(2, 2), strides=(2, 2), padding='same'), tf.keras.layers.Flatten(), tf.keras.layers.Dense(units=120, activation=tf.nn.relu), tf.keras.layers.Dense(units=84, activation=tf.nn.relu), tf.keras.layers.Dense(units=10, activation=tf.nn.softmax) ]) # 模型展示 model.summary() # ------------------4. 訓(xùn)練模型------------------ # 設(shè)置超參數(shù) num_epochs = 10 # 訓(xùn)練輪數(shù) batch_size = 1000 # 批次大小 learning_rate = 0.001 # 學(xué)習(xí)率 # 定義優(yōu)化器 adam_optimizer = tf.keras.optimizers.Adam(learning_rate) model.compile(optimizer=adam_optimizer,loss=tf.keras.losses.sparse_categorical_crossentropy,metrics=['accuracy']) with tf.Session() as sess: # 初始化所有變量 init = tf.global_variables_initializer() sess.run(init) model.fit(x=X_train,y=y_train,batch_size=batch_size,epochs=num_epochs) # 評(píng)估指標(biāo) print(model.evaluate(X_test, y_test)) # loss value & metrics values # ------------------5. 保存模型------------------ model.save('lenet_model.h5')
到此這篇關(guān)于由淺入深學(xué)習(xí)TensorFlow MNIST 數(shù)據(jù)集的文章就介紹到這了,更多相關(guān)TensorFlow MNIST 數(shù)據(jù)集內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python+opencv實(shí)現(xiàn)動(dòng)態(tài)物體識(shí)別
這篇文章主要為大家詳細(xì)介紹了python+opencv實(shí)現(xiàn)動(dòng)態(tài)物體識(shí)別,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-01-01解決Jupyter NoteBook輸出的圖表太小看不清問題
這篇文章主要介紹了解決Jupyter NoteBook輸出的圖表太小看不清問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-04-04使用Python爬取Json數(shù)據(jù)的示例代碼
這篇文章主要介紹了使用Python爬取Json數(shù)據(jù)的示例代碼,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-12-12Python實(shí)現(xiàn)的遠(yuǎn)程文件自動(dòng)打包并下載功能示例
這篇文章主要介紹了Python實(shí)現(xiàn)的遠(yuǎn)程文件自動(dòng)打包并下載功能,結(jié)合實(shí)例形式分析了Python使用spawn()方法執(zhí)行ssh、scp 命令實(shí)現(xiàn)遠(yuǎn)程文件的相關(guān)操作技巧,需要的朋友可以參考下2019-07-07Python Numpy中數(shù)據(jù)的常用保存與讀取方法
這篇文章主要介紹了Python Numpy中數(shù)據(jù)的常用保存與讀取方法,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-04-04Python3轉(zhuǎn)換html到pdf的不同解決方案
今天小編就為大家分享一篇關(guān)于Python3轉(zhuǎn)換html到pdf的不同解決方案,小編覺得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來看看吧2019-03-03Python強(qiáng)化練習(xí)之PyTorch opp算法實(shí)現(xiàn)月球登陸器
在面向?qū)ο蟪霈F(xiàn)之前,我們采用的開發(fā)方法都是面向過程的編程(OPP)。面向過程的編程中最常用的一個(gè)分析方法是“功能分解”。我們會(huì)把用戶需求先分解成模塊,然后把模塊分解成大的功能,再把大的功能分解成小的功能,整個(gè)需求就是按照這樣的方式,最終分解成一個(gè)一個(gè)的函數(shù)2021-10-10