亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Tensorflow 使用pb文件保存(恢復(fù))模型計(jì)算圖和參數(shù)實(shí)例詳解

 更新時(shí)間:2020年02月11日 17:37:46   作者:brooknew  
今天小編就為大家分享一篇Tensorflow 使用pb文件保存(恢復(fù))模型計(jì)算圖和參數(shù)實(shí)例詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧

一、保存:

graph_util.convert_variables_to_constants 可以把當(dāng)前session的計(jì)算圖串行化成一個(gè)字節(jié)流(二進(jìn)制),這個(gè)函數(shù)包含三個(gè)參數(shù):參數(shù)1:當(dāng)前活動(dòng)的session,它含有各變量

參數(shù)2:GraphDef 對(duì)象,它描述了計(jì)算網(wǎng)絡(luò)

參數(shù)3:Graph圖中需要輸出的節(jié)點(diǎn)的名稱的列表

返回值:精簡(jiǎn)版的GraphDef 對(duì)象,包含了原始輸入GraphDef和session的網(wǎng)絡(luò)和變量信息,它的成員函數(shù)SerializeToString()可以把這些信息串行化為字節(jié)流,然后寫入文件里:

constant_graph = graph_util.convert_variables_to_constants( sess, sess.graph_def , ['sum_operation'] )
with open( pbName, mode='wb') as f:
f.write(constant_graph.SerializeToString())

需要指出的是,如果原始張量(包含在參數(shù)1和參數(shù)2中的組成部分)不參與參數(shù)3指定的輸出節(jié)點(diǎn)列表所指定的張量計(jì)算的話,這些張量將不會(huì)存在返回的GraphDef對(duì)象里,也不會(huì)被串行化寫入pb文件。

二、恢復(fù):

恢復(fù)時(shí),創(chuàng)建一個(gè)GraphDef,然后從上述的文件里加載進(jìn)來,接著輸入到當(dāng)前的session:

    graph0 = tf.GraphDef()
    with open( pbName, mode='rb') as f:
      graph0.ParseFromString( f.read() )
      tf.import_graph_def( graph0 , name = '' )

三、代碼:

 
import tensorflow as tf 
from tensorflow.python.framework import graph_util
 
pbName = 'graphA.pb'
def graphCreate() :
  with tf.Session() as sess :
    var1 = tf.placeholder ( tf.int32 , name='var1' ) 
    var2 = tf.Variable( 20 , name='var2' )#實(shí)參name='var2'指定了操作名,該操作返回的張量名是在
                       #'var2'后面:0 ,即var2:0 是返回的張量名,也就是說變量
                       # var2的名稱是'var2:0'
    var3 = tf.Variable( 30 , name='var3' )
    var4 = tf.Variable( 40 , name='var4' )
    var4op = tf.assign( var4 , 1000 , name = 'var4op1' )
    sum = tf.Variable( 4, name='sum' )
    sum = tf.add ( var1 , var2, name = 'var1_var2' ) 
    sum = tf.add( sum , var3 , name='sum_var3' )
    sumOps = tf.add( sum , var4 , name='sum_operation' )
    oper = tf.get_default_graph().get_operations()
    with open( 'operation.csv','wt' ) as f:
      s = 'name,type,output\n'
      f.write( s ) 
      for o in oper:
        s = o.name
        s += ','+ o.type 
        inp = o.inputs
        oup = o.outputs
        for iip in inp :
          s #s += ','+ str(iip)
        for iop in oup :
          s += ',' + str(iop)
        s += '\n'
        f.write( s ) 
         
      for var in tf.global_variables():
        print('variable=> ' , var.name) #張量是tf.Variable/tf.Add之類操作的結(jié)果,
                        #張量的名字使用操作名加:0來表示
    init = tf.global_variables_initializer()
    sess.run( init )
    sess.run( var4op )
    print('sum_operation result is Tensor ' , sess.run( sumOps , feed_dict={var1:1}) )
 
    constant_graph = graph_util.convert_variables_to_constants( sess, sess.graph_def , ['sum_operation'] )
    with open( pbName, mode='wb') as f:
      f.write(constant_graph.SerializeToString())
 
def graphGet() :
  print("start get:" )
  with tf.Graph().as_default():
    graph0 = tf.GraphDef()
    with open( pbName, mode='rb') as f:
      graph0.ParseFromString( f.read() )
      tf.import_graph_def( graph0 , name = '' )
    with tf.Session() as sess :
      init = tf.global_variables_initializer()
      sess.run(init)
      v1 = sess.graph.get_tensor_by_name('var1:0' )
      v2 = sess.graph.get_tensor_by_name('var2:0' )
      v3 = sess.graph.get_tensor_by_name('var3:0' )
      v4 = sess.graph.get_tensor_by_name('var4:0' )
      
      sumTensor = sess.graph.get_tensor_by_name("sum_operation:0")
      print('sumTensor is : ' , sumTensor )
      print( sess.run( sumTensor , feed_dict={v1:1} ) ) 
  
graphCreate()
graphGet()
  

四、保存pb函數(shù)代碼里的操作名稱/類型/返回的張量:

operation name operation type output
var1 Placeholder Tensor("var1:0" dtype=int32)
var2/initial_value Const Tensor("var2/initial_value:0" shape=() dtype=int32)
var2 VariableV2 Tensor("var2:0" shape=() dtype=int32_ref)
var2/Assign Assign Tensor("var2/Assign:0" shape=() dtype=int32_ref)
var2/read Identity Tensor("var2/read:0" shape=() dtype=int32)
var3/initial_value Const Tensor("var3/initial_value:0" shape=() dtype=int32)
var3 VariableV2 Tensor("var3:0" shape=() dtype=int32_ref)
var3/Assign Assign Tensor("var3/Assign:0" shape=() dtype=int32_ref)
var3/read Identity Tensor("var3/read:0" shape=() dtype=int32)
var4/initial_value Const Tensor("var4/initial_value:0" shape=() dtype=int32)
var4 VariableV2 Tensor("var4:0" shape=() dtype=int32_ref)
var4/Assign Assign Tensor("var4/Assign:0" shape=() dtype=int32_ref)
var4/read Identity Tensor("var4/read:0" shape=() dtype=int32)
var4op1/value Const Tensor("var4op1/value:0" shape=() dtype=int32)
var4op1 Assign Tensor("var4op1:0" shape=() dtype=int32_ref)
sum/initial_value Const Tensor("sum/initial_value:0" shape=() dtype=int32)
sum VariableV2 Tensor("sum:0" shape=() dtype=int32_ref)
sum/Assign Assign Tensor("sum/Assign:0" shape=() dtype=int32_ref)
sum/read Identity Tensor("sum/read:0" shape=() dtype=int32)
var1_var2 Add Tensor("var1_var2:0" dtype=int32)
sum_var3 Add Tensor("sum_var3:0" dtype=int32)
sum_operation Add Tensor("sum_operation:0" dtype=int32)

以上這篇Tensorflow 使用pb文件保存(恢復(fù))模型計(jì)算圖和參數(shù)實(shí)例詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • Python得到彈幕并保存到Excel中怎么設(shè)置

    Python得到彈幕并保存到Excel中怎么設(shè)置

    今天給大家分享一個(gè)得到彈幕的代碼,本文通過實(shí)例代碼給大家介紹Python得到彈幕并保存到Excel中怎么設(shè)置,感興趣的朋友跟隨小編一起看看吧
    2023-01-01
  • 淺談Python peewee 使用經(jīng)驗(yàn)

    淺談Python peewee 使用經(jīng)驗(yàn)

    這篇文章主要介紹了淺談Python peewee 使用經(jīng)驗(yàn),小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧
    2017-10-10
  • 詳解pandas安裝若干異常及解決方案總結(jié)

    詳解pandas安裝若干異常及解決方案總結(jié)

    這篇文章主要介紹了詳解pandas安裝若干異常及解決方案總結(jié),小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧
    2019-01-01
  • python機(jī)器學(xué)習(xí)樸素貝葉斯算法及模型的選擇和調(diào)優(yōu)詳解

    python機(jī)器學(xué)習(xí)樸素貝葉斯算法及模型的選擇和調(diào)優(yōu)詳解

    這篇文章主要為大家介紹了python機(jī)器學(xué)習(xí)樸素貝葉斯及模型的選擇和調(diào)優(yōu)示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步
    2021-11-11
  • 如何使用repr調(diào)試python程序

    如何使用repr調(diào)試python程序

    這篇文章主要介紹了如何使用repr調(diào)試python程序,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-02-02
  • keras訓(xùn)練曲線,混淆矩陣,CNN層輸出可視化實(shí)例

    keras訓(xùn)練曲線,混淆矩陣,CNN層輸出可視化實(shí)例

    這篇文章主要介紹了keras訓(xùn)練曲線,混淆矩陣,CNN層輸出可視化實(shí)例,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2020-06-06
  • Python操作MongoDB詳解及實(shí)例

    Python操作MongoDB詳解及實(shí)例

    這篇文章主要介紹了Python操作MongoDB詳解及實(shí)例的相關(guān)資料,需要的朋友可以參考下
    2017-05-05
  • Python中turtle庫常用代碼匯總

    Python中turtle庫常用代碼匯總

    Turtle庫是Python語言中一個(gè)很流行的繪制圖像的函數(shù)庫,下面這篇文章主要給大家介紹了關(guān)于Python中turtle庫常用代碼的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2022-09-09
  • 淺析Python中字符串的intern機(jī)制

    淺析Python中字符串的intern機(jī)制

    這篇文章主要介紹了Python中字符串的intern機(jī)制,幫助大家更好的理解和學(xué)習(xí)python,感興趣的朋友可以了解下
    2020-10-10
  • Python自定義線程池實(shí)現(xiàn)方法分析

    Python自定義線程池實(shí)現(xiàn)方法分析

    這篇文章主要介紹了Python自定義線程池實(shí)現(xiàn)方法,結(jié)合實(shí)例形式較為詳細(xì)的分析了Python自定義線程池的概念、原理、實(shí)現(xiàn)方法及相關(guān)注意事項(xiàng),需要的朋友可以參考下
    2018-02-02

最新評(píng)論