亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測(cè)試

 更新時(shí)間:2020年01月20日 10:12:59   作者:非典型廢言  
今天小編就為大家分享一篇Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測(cè)試,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧

Tensorflow可以使用訓(xùn)練好的模型對(duì)新的數(shù)據(jù)進(jìn)行測(cè)試,有兩種方法:第一種方法是調(diào)用模型和訓(xùn)練在同一個(gè)py文件中,中情況比較簡(jiǎn)單;第二種是訓(xùn)練過程和調(diào)用模型過程分別在兩個(gè)py文件中。本文將講解第二種方法。

模型的保存

tensorflow提供可保存訓(xùn)練模型的接口,使用起來也不是很難,直接上代碼講解:

#網(wǎng)絡(luò)結(jié)構(gòu)
w1 = tf.Variable(tf.truncated_normal([in_units, h1_units], stddev=0.1))
b1 = tf.Variable(tf.zeros([h1_units]))
y = tf.nn.softmax(tf.matmul(w1, x) + b1)
tf.add_to_collection('network-output', y)

x = tf.placeholder(tf.float32, [None, in_units], name='x')
y_ = tf.placeholder(tf.float32, [None, 10], name='y_')
#損失函數(shù)與優(yōu)化函數(shù)
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y), reduction_indices=[1]))
train_step = tf.train.AdamOptimizer(rate).minimize(cross_entropy)

saver = tf.train.Saver()
with tf.Session() as sess: 
    sess.run(init) 
    saver.save(sess,"save/model.ckpt") 
    train_step.run({x: train_x, y_: train_y})

以上代碼就完成了模型的保存,值得注意的是下面這行代碼

tf.add_to_collection('network-output', y)

這行代碼保存了神經(jīng)網(wǎng)絡(luò)的輸出,這個(gè)在后面使用導(dǎo)入模型過程中起到關(guān)鍵作用。

模型的導(dǎo)入

模型訓(xùn)練并保存后就可以導(dǎo)入來評(píng)估模型在測(cè)試集上的表現(xiàn),網(wǎng)上很多文章只用簡(jiǎn)單的四則運(yùn)算來做例子,讓人看的頭大。還是先上代碼:

with tf.Session() as sess:
  saver = tf.train.import_meta_graph('./model.ckpt.meta')
  saver.restore(sess, './model.ckpt')# .data文件
  pred = tf.get_collection('network-output')[0]

  graph = tf.get_default_graph()
  x = graph.get_operation_by_name('x').outputs[0]
  y_ = graph.get_operation_by_name('y_').outputs[0]

  y = sess.run(pred, feed_dict={x: test_x, y_: test_y})

講解一下關(guān)鍵的代碼,首先是pred = tf.get_collection('pred_network')[0],這行代碼獲得訓(xùn)練過程中網(wǎng)絡(luò)輸出的“接口”,簡(jiǎn)單理解就是,通過tf.get_collection() 這個(gè)方法獲取了整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)。獲得網(wǎng)絡(luò)結(jié)構(gòu)后我們就需要喂它對(duì)應(yīng)的數(shù)據(jù)y = sess.run(pred, feed_dict={x: test_x, y_: test_y}) 在訓(xùn)練過程中我們的輸入是

x = tf.placeholder(tf.float32, [None, in_units], name='x')
y_ = tf.placeholder(tf.float32, [None, 10], name='y_')

因此導(dǎo)入模型后所需的輸入也要與之對(duì)應(yīng)可使用以下代碼獲得:

  x = graph.get_operation_by_name('x').outputs[0]
  y_ = graph.get_operation_by_name('y_').outputs[0]

使用模型的最后一步就是輸入測(cè)試集,然后按照訓(xùn)練好的網(wǎng)絡(luò)進(jìn)行評(píng)估

  sess.run(pred, feed_dict={x: test_x, y_: test_y})

理解下這行代碼,sess.run() 的函數(shù)原型為

run(fetches, feed_dict=None, options=None, run_metadata=None)

Tensorflow對(duì) feed_dict 執(zhí)行fetches操作,因此在導(dǎo)入模型后的運(yùn)算就是,按照訓(xùn)練的網(wǎng)絡(luò)計(jì)算測(cè)試輸入的數(shù)據(jù)。

以上這篇Tensorflow實(shí)現(xiàn)在訓(xùn)練好的模型上進(jìn)行測(cè)試就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論