Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測(cè)試
Tensorflow可以使用訓(xùn)練好的模型對(duì)新的數(shù)據(jù)進(jìn)行測(cè)試,有兩種方法:第一種方法是調(diào)用模型和訓(xùn)練在同一個(gè)py文件中,中情況比較簡(jiǎn)單;第二種是訓(xùn)練過程和調(diào)用模型過程分別在兩個(gè)py文件中。本文將講解第二種方法。
模型的保存
tensorflow提供可保存訓(xùn)練模型的接口,使用起來也不是很難,直接上代碼講解:
#網(wǎng)絡(luò)結(jié)構(gòu) w1 = tf.Variable(tf.truncated_normal([in_units, h1_units], stddev=0.1)) b1 = tf.Variable(tf.zeros([h1_units])) y = tf.nn.softmax(tf.matmul(w1, x) + b1) tf.add_to_collection('network-output', y) x = tf.placeholder(tf.float32, [None, in_units], name='x') y_ = tf.placeholder(tf.float32, [None, 10], name='y_') #損失函數(shù)與優(yōu)化函數(shù) cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1])) train_step = tf.train.AdamOptimizer(rate).minimize(cross_entropy) saver = tf.train.Saver() with tf.Session() as sess: sess.run(init) saver.save(sess,"save/model.ckpt") train_step.run({x: train_x, y_: train_y})
以上代碼就完成了模型的保存,值得注意的是下面這行代碼
tf.add_to_collection('network-output', y)
這行代碼保存了神經(jīng)網(wǎng)絡(luò)的輸出,這個(gè)在后面使用導(dǎo)入模型過程中起到關(guān)鍵作用。
模型的導(dǎo)入
模型訓(xùn)練并保存后就可以導(dǎo)入來評(píng)估模型在測(cè)試集上的表現(xiàn),網(wǎng)上很多文章只用簡(jiǎn)單的四則運(yùn)算來做例子,讓人看的頭大。還是先上代碼:
with tf.Session() as sess: saver = tf.train.import_meta_graph('./model.ckpt.meta') saver.restore(sess, './model.ckpt')# .data文件 pred = tf.get_collection('network-output')[0] graph = tf.get_default_graph() x = graph.get_operation_by_name('x').outputs[0] y_ = graph.get_operation_by_name('y_').outputs[0] y = sess.run(pred, feed_dict={x: test_x, y_: test_y})
講解一下關(guān)鍵的代碼,首先是pred = tf.get_collection('pred_network')[0],這行代碼獲得訓(xùn)練過程中網(wǎng)絡(luò)輸出的“接口”,簡(jiǎn)單理解就是,通過tf.get_collection() 這個(gè)方法獲取了整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)。獲得網(wǎng)絡(luò)結(jié)構(gòu)后我們就需要喂它對(duì)應(yīng)的數(shù)據(jù)y = sess.run(pred, feed_dict={x: test_x, y_: test_y}) 在訓(xùn)練過程中我們的輸入是
x = tf.placeholder(tf.float32, [None, in_units], name='x') y_ = tf.placeholder(tf.float32, [None, 10], name='y_')
因此導(dǎo)入模型后所需的輸入也要與之對(duì)應(yīng)可使用以下代碼獲得:
x = graph.get_operation_by_name('x').outputs[0] y_ = graph.get_operation_by_name('y_').outputs[0]
使用模型的最后一步就是輸入測(cè)試集,然后按照訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行評(píng)估
sess.run(pred, feed_dict={x: test_x, y_: test_y})
理解下這行代碼,sess.run() 的函數(shù)原型為
run(fetches, feed_dict=None, options=None, run_metadata=None)
Tensorflow對(duì) feed_dict 執(zhí)行fetches操作,因此在導(dǎo)入模型后的運(yùn)算就是,按照訓(xùn)練的網(wǎng)絡(luò)計(jì)算測(cè)試輸入的數(shù)據(jù)。
以上這篇Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測(cè)試就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python日志打印里logging.getLogger源碼分析詳解
在本篇文章里小編給大家整理的是一篇關(guān)于Python logging.getLogger源碼分析的相關(guān)內(nèi)容,有興趣的朋友們可以學(xué)習(xí)參考下。2021-01-01python獲取代碼運(yùn)行時(shí)間的實(shí)例代碼
今天小編就為大家分享一篇python獲取代碼運(yùn)行時(shí)間的實(shí)例代碼,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2018-06-06Python使用CMD模塊更優(yōu)雅的運(yùn)行腳本
這篇文章主要介紹了Python使用CMD模塊更優(yōu)雅的運(yùn)行腳本的方法,實(shí)例分析了Python中cmd模塊的相關(guān)使用技巧,具有一定參考借鑒價(jià)值,需要的朋友可以參考下2015-05-05Python實(shí)現(xiàn)多進(jìn)程的四種方式
今天小編就為大家分享一篇關(guān)于Python實(shí)現(xiàn)多進(jìn)程的四種方式,小編覺得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來看看吧2019-02-02matplotlib在python上繪制3D散點(diǎn)圖實(shí)例詳解
這篇文章主要介紹了matplotlib在python上繪制3D散點(diǎn)圖實(shí)例詳解,首先介紹了官網(wǎng)的實(shí)例,然后分享了本文簡(jiǎn)單代碼示例,具有一定借鑒價(jià)值,需要的朋友可以了解下。2017-12-12Python分析特征數(shù)據(jù)類別與預(yù)處理方法速學(xué)
這篇文章主要為大家介紹了Python分析特征數(shù)據(jù)類別與預(yù)處理方法速學(xué),有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2023-02-02python模塊與C和C++動(dòng)態(tài)庫相互調(diào)用實(shí)現(xiàn)過程示例
這篇文章主要為大家介紹了python模塊與C和C++動(dòng)態(tài)庫之間相互調(diào)用的實(shí)現(xiàn)過程示例,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-11-11python基礎(chǔ)篇之pandas常用基本函數(shù)匯總
Pandas是一個(gè)python數(shù)據(jù)分析庫,它提供了許多函數(shù)和方法來加快數(shù)據(jù)分析過程,下面這篇文章主要給大家介紹了關(guān)于python基礎(chǔ)篇之pandas常用基本函數(shù)的相關(guān)資料,需要的朋友可以參考下2022-07-07PyTorch實(shí)現(xiàn)更新部分網(wǎng)絡(luò),其他不更新
今天小編就為大家分享一篇PyTorch實(shí)現(xiàn)更新部分網(wǎng)絡(luò),其他不更新,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-12-12