亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Keras之fit_generator與train_on_batch用法

 更新時間:2020年06月17日 10:42:15   作者:鵲踏枝-碼農(nóng)  
這篇文章主要介紹了Keras之fit_generator與train_on_batch用法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

關(guān)于Keras中,當數(shù)據(jù)比較大時,不能全部載入內(nèi)存,在訓練的時候就需要利用train_on_batch或fit_generator進行訓練了。

兩者均是利用生成器,每次載入一個batch-size的數(shù)據(jù)進行訓練。

那么fit_generator與train_on_batch該用哪一個呢?

train_on_batch(self, x, y, class_weight=None, sample_weight=None)

fit_generator(self, generator, samples_per_epoch, nb_epoch, verbose=1, callbacks=[], validation_data=None, nb_val_samples=None, class_weight=None, max_q_size=10)

推薦使用fit_generator,因為其同時可以設置 validation_data,但是采用train_on_batch也沒什么問題,這個主要看個人習慣了,沒有什么標準的答案。

下面是François Chollet fchollet本人給出的解答:

With fit_generator, you can use a generator for the validation data as well. In general I would recommend using fit_generator, but using train_on_batch works fine too. These methods only exist as for the sake of convenience in different use cases, there is no "correct" method.

補充知識:tf.keras中model.fit_generator()和model.fit()

首先Keras中的fit()函數(shù)傳入的x_train和y_train是被完整的加載進內(nèi)存的,當然用起來很方便,但是如果我們數(shù)據(jù)量很大,那么是不可能將所有數(shù)據(jù)載入內(nèi)存的,必將導致內(nèi)存泄漏,這時候我們可以用fit_generator函數(shù)來進行訓練。

fit(x=None, y=None, batch_size=None, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0, steps_per_epoch=None, validation_steps=None)

以給定數(shù)量的輪次(數(shù)據(jù)集上的迭代)訓練模型。

參數(shù)

x: 訓練數(shù)據(jù)的 Numpy 數(shù)組(如果模型只有一個輸入), 或者是 Numpy 數(shù)組的列表(如果模型有多個輸入)。 如果模型中的輸入層被命名,你也可以傳遞一個字典,將輸入層名稱映射到 Numpy 數(shù)組。 如果從本地框架張量饋送(例如 TensorFlow 數(shù)據(jù)張量)數(shù)據(jù),x 可以是 None(默認)。

y: 目標(標簽)數(shù)據(jù)的 Numpy 數(shù)組(如果模型只有一個輸出), 或者是 Numpy 數(shù)組的列表(如果模型有多個輸出)。 如果模型中的輸出層被命名,你也可以傳遞一個字典,將輸出層名稱映射到 Numpy 數(shù)組。 如果從本地框架張量饋送(例如 TensorFlow 數(shù)據(jù)張量)數(shù)據(jù),y 可以是 None(默認)。

batch_size: 整數(shù)或 None。每次梯度更新的樣本數(shù)。如果未指定,默認為 32。

epochs: 整數(shù)。訓練模型迭代輪次。一個輪次是在整個 x 和 y 上的一輪迭代。 請注意,與 initial_epoch 一起,epochs 被理解為 「最終輪次」。模型并不是訓練了 epochs 輪,而是到第 epochs 輪停止訓練。

verbose: 0, 1 或 2。日志顯示模式。 0 = 安靜模式, 1 = 進度條, 2 = 每輪一行。

callbacks: 一系列的 keras.callbacks.Callback 實例。一系列可以在訓練時使用的回調(diào)函數(shù)。 詳見 callbacks。

validation_split: 0 和 1 之間的浮點數(shù)。用作驗證集的訓練數(shù)據(jù)的比例。 模型將分出一部分不會被訓練的驗證數(shù)據(jù),并將在每一輪結(jié)束時評估這些驗證數(shù)據(jù)的誤差和任何其他模型指標。 驗證數(shù)據(jù)是混洗之前 x 和y 數(shù)據(jù)的最后一部分樣本中。

validation_data: 元組 (x_val,y_val) 或元組 (x_val,y_val,val_sample_weights), 用來評估損失,以及在每輪結(jié)束時的任何模型度量指標。 模型將不會在這個數(shù)據(jù)上進行訓練。這個參數(shù)會覆蓋 validation_split。

shuffle: 布爾值(是否在每輪迭代之前混洗數(shù)據(jù))或者 字符串 (batch)。 batch 是處理 HDF5 數(shù)據(jù)限制的特殊選項,它對一個 batch 內(nèi)部的數(shù)據(jù)進行混洗。 當 steps_per_epoch 非 None 時,這個參數(shù)無效。

class_weight: 可選的字典,用來映射類索引(整數(shù))到權(quán)重(浮點)值,用于加權(quán)損失函數(shù)(僅在訓練期間)。 這可能有助于告訴模型 「更多關(guān)注」來自代表性不足的類的樣本。

sample_weight: 訓練樣本的可選 Numpy 權(quán)重數(shù)組,用于對損失函數(shù)進行加權(quán)(僅在訓練期間)。 您可以傳遞與輸入樣本長度相同的平坦(1D)Numpy 數(shù)組(權(quán)重和樣本之間的 1:1 映射), 或者在時序數(shù)據(jù)的情況下,可以傳遞尺寸為 (samples, sequence_length) 的 2D 數(shù)組,以對每個樣本的每個時間步施加不同的權(quán)重。 在這種情況下,你應該確保在 compile() 中指定 sample_weight_mode=“temporal”。

initial_epoch: 整數(shù)。開始訓練的輪次(有助于恢復之前的訓練)。

steps_per_epoch: 整數(shù)或 None。 在聲明一個輪次完成并開始下一個輪次之前的總步數(shù)(樣品批次)。 使用 TensorFlow 數(shù)據(jù)張量等輸入張量進行訓練時,默認值 None 等于數(shù)據(jù)集中樣本的數(shù)量除以 batch 的大小,如果無法確定,則為 1。

validation_steps: 只有在指定了 steps_per_epoch 時才有用。停止前要驗證的總步數(shù)(批次樣本)。

返回

一個 History 對象。其 History.history 屬性是連續(xù) epoch 訓練損失和評估值,以及驗證集損失和評估值的記錄(如果適用)。

異常

fit_generator(generator, steps_per_epoch=None, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_queue_size=10, workers=1, use_multiprocessing=False, shuffle=True, initial_epoch=0)

使用 Python 生成器(或 Sequence 實例)逐批生成的數(shù)據(jù),按批次訓練模型。

生成器與模型并行運行,以提高效率。 例如,這可以讓你在 CPU 上對圖像進行實時數(shù)據(jù)增強,以在 GPU 上訓練模型。

keras.utils.Sequence 的使用可以保證數(shù)據(jù)的順序, 以及當 use_multiprocessing=True 時 ,保證每個輸入在每個 epoch 只使用一次。

參數(shù)

generator: 一個生成器,或者一個 Sequence (keras.utils.Sequence) 對象的實例, 以在使用多進程時避免數(shù)據(jù)的重復。 生成器的輸出應該為以下之一:

一個 (inputs, targets) 元組

一個 (inputs, targets, sample_weights) 元組。

這個元組(生成器的單個輸出)組成了單個的 batch。 因此,這個元組中的所有數(shù)組長度必須相同(與這一個 batch 的大小相等)。 不同的 batch 可能大小不同。 例如,一個 epoch 的最后一個 batch 往往比其他 batch 要小, 如果數(shù)據(jù)集的尺寸不能被 batch size 整除。 生成器將無限地在數(shù)據(jù)集上循環(huán)。當運行到第 steps_per_epoch 時,記一個 epoch 結(jié)束。

steps_per_epoch: 在聲明一個 epoch 完成并開始下一個 epoch 之前從 generator 產(chǎn)生的總步數(shù)(批次樣本)。 它通常應該等于你的數(shù)據(jù)集的樣本數(shù)量除以批量大小。 對于 Sequence,它是可選的:如果未指定,將使用len(generator) 作為步數(shù)。

epochs: 整數(shù)。訓練模型的迭代總輪數(shù)。一個 epoch 是對所提供的整個數(shù)據(jù)的一輪迭代,如 steps_per_epoch 所定義。注意,與 initial_epoch 一起使用,epoch 應被理解為「最后一輪」。模型沒有經(jīng)歷由 epochs 給出的多次迭代的訓練,而僅僅是直到達到索引 epoch 的輪次。

verbose: 0, 1 或 2。日志顯示模式。 0 = 安靜模式, 1 = 進度條, 2 = 每輪一行。

callbacks: keras.callbacks.Callback 實例的列表。在訓練時調(diào)用的一系列回調(diào)函數(shù)。

validation_data: 它可以是以下之一:

驗證數(shù)據(jù)的生成器或 Sequence 實例

一個 (inputs, targets) 元組

一個 (inputs, targets, sample_weights) 元組。

在每個 epoch 結(jié)束時評估損失和任何模型指標。該模型不會對此數(shù)據(jù)進行訓練。

validation_steps: 僅當 validation_data 是一個生成器時才可用。 在停止前 generator 生成的總步數(shù)(樣本批數(shù))。 對于 Sequence,它是可選的:如果未指定,將使用 len(generator) 作為步數(shù)。

class_weight: 可選的將類索引(整數(shù))映射到權(quán)重(浮點)值的字典,用于加權(quán)損失函數(shù)(僅在訓練期間)。 這可以用來告訴模型「更多地關(guān)注」來自代表性不足的類的樣本。

max_queue_size: 整數(shù)。生成器隊列的最大尺寸。 如未指定,max_queue_size 將默認為 10。

workers: 整數(shù)。使用的最大進程數(shù)量,如果使用基于進程的多線程。 如未指定,workers 將默認為 1。如果為 0,將在主線程上執(zhí)行生成器。

use_multiprocessing: 布爾值。如果 True,則使用基于進程的多線程。 如未指定, use_multiprocessing 將默認為 False。 請注意,由于此實現(xiàn)依賴于多進程,所以不應將不可傳遞的參數(shù)傳遞給生成器,因為它們不能被輕易地傳遞給子進程。

shuffle: 是否在每輪迭代之前打亂 batch 的順序。 只能與 Sequence (keras.utils.Sequence) 實例同用。

initial_epoch: 開始訓練的輪次(有助于恢復之前的訓練)。

返回

一個 History 對象。其 History.history 屬性是連續(xù) epoch 訓練損失和評估值,以及驗證集損失和評估值的記錄(如果適用)。

異常

ValueError: 如果生成器生成的數(shù)據(jù)格式不正確。

model.fit_generator(
  train_generator,
  steps_per_epoch=10, # 100
  validation_steps=1, # 50
  epochs=600, # 20個周期
  validation_data=validation_generator)

以上這篇Keras之fit_generator與train_on_batch用法就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • python如何安裝下載后的模塊

    python如何安裝下載后的模塊

    在本篇文章里小編給大家整理了關(guān)于python安裝下載后的模塊的方法,需要的朋友們可以學習下。
    2020-07-07
  • Python實現(xiàn)統(tǒng)計英文文章詞頻的方法分析

    Python實現(xiàn)統(tǒng)計英文文章詞頻的方法分析

    這篇文章主要介紹了Python實現(xiàn)統(tǒng)計英文文章詞頻的方法,結(jié)合實例形式分析了Python針對英文單詞頻率統(tǒng)計的相關(guān)原理、實現(xiàn)方法及具體操作技巧,需要的朋友可以參考下
    2019-01-01
  • Keras深度學習模型Sequential和Model詳解

    Keras深度學習模型Sequential和Model詳解

    這篇文章主要介紹了Keras深度學習模型Sequential和Model詳解,在Keras中有兩種深度學習的模型:序列模型(Sequential)和通用模型(Model),差異在于不同的拓撲結(jié)構(gòu),,需要的朋友可以參考下
    2023-08-08
  • Python裝飾器實現(xiàn)方法及應用場景詳解

    Python裝飾器實現(xiàn)方法及應用場景詳解

    這篇文章主要介紹了Python裝飾器實現(xiàn)方法及應用場景詳解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下
    2020-03-03
  • Python實現(xiàn)批量識別圖片文字并存為Excel

    Python實現(xiàn)批量識別圖片文字并存為Excel

    批量文字識別是Python辦公自動化的基本操作,應用在我們工作生活中的方方面面。本文主要以開源免費的easyocr來實現(xiàn)批量識別圖片文字并存為Excel,感興趣的可以學習一下
    2022-06-06
  • 關(guān)于dataframe排序 pd.rank()

    關(guān)于dataframe排序 pd.rank()

    pandas.DataFrame.rank方法支持不同的排序方式,如按行或列、升序或降序等,主要參數(shù)包括axis控制按行或列排名,method定義相同值的處理方式,numeric_only指定是否僅對數(shù)字列排序,na_option設置NaN值的排序方法,ascending確定排序方向,pct決定是否以百分比形式展示排名
    2024-09-09
  • 淺談pandas中對nan空值的判斷和陷阱

    淺談pandas中對nan空值的判斷和陷阱

    這篇文章主要介紹了淺談pandas中對nan空值的判斷和陷阱,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2021-03-03
  • python檢查指定文件是否存在的方法

    python檢查指定文件是否存在的方法

    這篇文章主要介紹了python檢查指定文件是否存在的方法,涉及Python基于os模塊判定文件的相關(guān)技巧,非常簡單實用,需要的朋友可以參考下
    2015-07-07
  • 一文帶你理解Python中面向?qū)ο缶幊蘋OP的概念

    一文帶你理解Python中面向?qū)ο缶幊蘋OP的概念

    在Python中,面向?qū)ο缶幊蹋∣OP)是一種在編程中使用對象和類的編程范式,它旨在實現(xiàn)現(xiàn)實世界的實體,下面我們就一起來看看它的相關(guān)知識吧
    2023-08-08
  • pytorch/transformers?最后一層不加激活函數(shù)的原因分析

    pytorch/transformers?最后一層不加激活函數(shù)的原因分析

    這里給大家解釋一下為什么bert模型最后都不加激活函數(shù),是因為損失函數(shù)選擇的原因,本文通過示例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友參考下吧
    2023-01-01

最新評論