亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

keras實現圖像預處理并生成一個generator的案例

 更新時間:2020年06月17日 11:34:16   作者:月下花弄影  
這篇文章主要介紹了keras實現圖像預處理并生成一個generator的案例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

如下所示:

接下來,給出我自己目前積累的代碼,從目錄中自動讀取圖像,并產生generator:

第一步:建立好目錄結構和圖像

可以看到目錄images_keras_dict下有次級目錄,次級目錄下就直接包含照片了

**第二步:寫代碼建立預處理程序

# 先進行預處理圖像
train_datagen = ImageDataGenerator(rescale=1./255, 
                  rotation_range=50,
                  height_shift_range=[-0.005, 0, 0.005],
                  width_shift_range=[-0.005, 0, 0.005],
                  horizontal_flip=True, 
                  fill_mode='reflect')
#再對預處理圖像指定從目錄中讀取數據,可以看到我的目錄最核心的地方是images_keras_dict(可以對照上一張圖片)
train_generator = train_datagen.flow_from_directory('AgriculturalDisease_trainingset/images_keras_dict',
                          target_size=(height, width), batch_size=16)

val_datagen = ImageDataGenerator(rescale=1./255)
val_generator = val_datagen.flow_from_directory('AgriculturalDisease_validationset/images_keras_dict', target_size=(height, width),
                        batch_size=64)

save_weights = ModelCheckpoint(filepath='models/best_weights.hdf5',monitor='val_loss', verbose=1, save_best_only=True)

# 最后在fit_generator 中放入生成器的函數train_generator
model.fit_generator(train_generator,
          steps_per_epoch=times_train,
          verbose=1,
          epochs=300,
          initial_epoch=0,
          validation_data=val_generator,
          validation_steps=times_val,
          callbacks=[save_weights, TrainValTensorBoard(write_graph=False)])

第三步:寫入fit_generator進行訓練

已經寫在上一個代碼中。

第四步:寫predict_generator進行預測**

首先我們需要建立同樣的目錄結構。把包含預測圖片的次級目錄放在一個文件夾下,這個文件夾名就是關鍵文件夾。

這里我的關鍵文件夾是test文件夾

# 建立預處理
predict_datagen = ImageDataGenerator(rescale=1./255)
predict_generator = predict_datagen.flow_from_directory('AgriculturalDisease_validationset/test',
                            target_size=(height, width), batch_size=128)
# predict_generator.reset()
# 利用predict_generator進行預測
pred = model.predict_generator(predict_generator, max_queue_size=10, workers=1, verbose=1)

# 利用幾個屬性來讀取文件夾和對應的分類
train_datagen = ImageDataGenerator(rescale=1./255, rotation_range=40, fill_mode='wrap')
train_generator = train_datagen.flow_from_directory('new_images', target_size=(height, width), batch_size=96)
labels = (train_generator.class_indices)
labels = dict((v,k) for k,v in labels.items())
predictions = [labels[k] for k in predicted_class_indices]

# 還可以知道圖片的名字
filenames = predict_generator.filenames

補充知識:[TensorFlow 2] [Keras] fit()、fit_generator() 和 train_on_batch() 分析與應用

前言

是的,除了水報錯文,我也來寫點其他的。本文主要介紹Keras中以下三個函數的用法:

1、fit()

2、fit_generator()

3、train_on_batch()

當然,與上述三個函數相似的evaluate、predict、test_on_batch、predict_on_batch、evaluate_generator和predict_generator等就不詳細說了,舉一反三嘛。

環(huán)境

本文的代碼是在以下環(huán)境下進行測試的:

Windows 10

Python 3.6

TensorFlow 2.0 Alpha

異同

大家用Keras也就圖個簡單快捷,但是在享受簡單快捷的時候,也常常需要些定制化需求,除了model.fit(),有時候model.fit_generator()和model.train_on_batch()也很重要。

那么,這三個函數有什么異同呢?Adrian Rosebrock [1] 有如下總結:

當你使用.fit()函數時,意味著如下兩個假設:

訓練數據可以 完整地 放入到內存(RAM)里

數據已經不需要再進行任何處理了

這兩個原因解釋的非常好,之前我運行程序的時候,由于數據集太大(實際中的數據集顯然不會都像 TensorFlow 官方教程里經常使用的 MNIST 數據集那樣?。淮涡约虞d訓練數據到fit()函數里根本行不通:

history = model.fit(train_data, train_label) // Bomb!!!

于是我想,能不能先加載一個batch訓練,然后再加載一個batch,如此往復。于是我就注意到了fit_generator()函數。什么時候該使用fit_generator函數呢?Adrian Rosebrock 的總結道:

內存不足以一次性加載整個訓練數據的時候

需要一些數據預處理(例如旋轉和平移圖片、增加噪音、擴大數據集等操作)

在生成batch的時候需要更多的處理

對于我自己來說,除了數據集太大的緣故之外,我需要在生成batch的時候,對輸入數據進行padding,所以fit_generator()就派上了用場。下面介紹如何使用這三種函數。

fit()函數

fit()函數其實沒什么好說的,大家在看TensorFlow教程的時候已經見識過了。此外插一句話,tf.data.Dataset對不規(guī)則的序列數據真是不友好。

import tensorflow as tf
model = tf.keras.models.Sequential([
 ... // 你的模型
])
model.fit(train_x, // 訓練輸入
  train_y, // 訓練標簽
  epochs=5 // 訓練5輪
)

fit_generator()函數

fit_generator()函數就比較重要了,也是本文討論的重點。fit_generator()與fit()的主要區(qū)別就在一個generator上。之前,我們把整個訓練數據都輸入到fit()里,我們也不需要考慮batch的細節(jié);現在,我們使用一個generator,每次生成一個batch送給fit_generator()訓練。

def generator(x, y, b_size):
 ... // 處理函數

model.fit_generator(generator(train_x, train_y, batch_size), 
   step_per_epochs=np.ceil(len(train_x)/batch_size), 
   epochs=5
)

從上述代碼中,我們發(fā)現有兩處不同:

一個我們自定義的generator()函數,作為fit_generator()函數的第一個參數;

fit_generator()函數的step_per_epochs參數

自定義的generator()函數

該函數即是我們數據的生成器,在訓練的時候,fit_generator()函數會不斷地執(zhí)行generator()函數,獲取一個個的batch。

def generator(x, y, b_size):
 """Generates batch and batch and batch then feed into models.
 Args:
 x: input data;
 y: input labels;
 b_size: batch_size.
 Yield:
 (batch_x, batch_label): batched x and y.
 """
 while 1: // 死循環(huán)
 idx = ...
 batch_x = ...
 batch_y = ...
 ... // 任何你想要對這個`batch`中的數據執(zhí)行的操作
 yield (batch_x, batch_y)

需要注意的是,不要使用return或者exit。

step_per_epochs參數

由于generator()函數的循環(huán)沒有終止條件,fit_generator也不知道一個epoch什么時候結束,所以我們需要手動指定step_per_epochs參數,一般的數值即為len(y)//batch_size。如果數據集大小不能整除batch_size,而且你打算使用最后一個batch的數據(該batch比batch_size要?。藭r使用np.ceil(len(y)/batch_size)。

keras.utils.Sequence類(2019年6月10日更新)

除了寫generator()函數,我們還可以利用keras.utils.Sequence類來生成batch。先扔代碼:

class Generator(keras.utils.Sequence):
 def __init__(self, x, y, b_size):
 self.x, self.y = x, y
 self.batch_size = b_size
 
 def __len__(self):
 return math.ceil(len(self.y)/self.batch_size

 def __getitem__(self, idx):
 b_x = self.x[idx*self.batch_size:(idx+1)*self.batch_size]
 b_y = self.y[idx*self.batch_size:(idx+1)*self.batch_size]
 ... // 對`batch`的其余操作
 return np.array(b_x), np.array(b_y)
 
 def on_epoch_end(self):
 """執(zhí)行完一個`epoch`之后,還可以做一些其他的事情!"""
 ...

我們首先定義__init__函數,讀取訓練集數據,然后定義__len__函數,返回一個epoch中需要執(zhí)行的step數(此時在fit_generator()函數中就不需要指定steps_per_epoch參數了),最后定義__getitem__函數,返回一個batch的數據。代碼如下:

train_generator = Generator(train_x, train_y, batch_size)
val_generator = Generator(val_x, val_y, batch_size)

model.fit_generator(generator=train_generator, 
   epochs=3197747, 
   validation_data=val_generator
   )

根據官方 [2] 的說法,使用Sequence類可以保證在多進程的情況下,每個epoch中的樣本只會被訓練一次??傊?,使用keras.utils.Sequence也是很方便的啦!

train_on_batch()函數

train_on_batch()函數接受一個batch的輸入和標簽,然后開始反向傳播,更新參數等。大部分情況下你都不需要用到train_on_batch()函數,除非你有著充足的理由去定制化你的模型的訓練流程。

結語

本文到此結束啦!希望能給大家一個參考,也希望大家多多支持腳本之家。

相關文章

  • PyTorch零基礎入門之構建模型基礎

    PyTorch零基礎入門之構建模型基礎

    PyTorch是一個開源的Python機器學習庫,基于Torch,用于自然語言處理等應用程序,它是一個可續(xù)計算包,提供兩個高級功能:1、具有強大的GPU加速的張量計算(如NumPy)。2、包含自動求導系統(tǒng)的深度神經網絡
    2021-10-10
  • python 讀取、寫入txt文件的示例

    python 讀取、寫入txt文件的示例

    這篇文章主要介紹了python 讀取、寫入txt文件的示例,幫助大家更好的利用python 處理文件,感興趣的朋友可以了解下
    2020-09-09
  • python計算兩個矩形框重合百分比的實例

    python計算兩個矩形框重合百分比的實例

    今天小編就為大家分享一篇python計算兩個矩形框重合百分比的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-11-11
  • Matplotlib中文亂碼的3種解決方案

    Matplotlib中文亂碼的3種解決方案

    當我們用matplotlib作圖時,往往會發(fā)現中文的文字變成了小方塊,我在繪制決策樹的時候就碰到了這個問題。下面這篇文章主要給大家總結介紹了關于Matplotlib中文亂碼的3種解決方案,需要的朋友可以參考下
    2018-11-11
  • python中的print()函數end=' '的使用及說明

    python中的print()函數end=' '的使用及說明

    這篇文章主要介紹了python中的print()函數end=' '的使用及說明,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2024-02-02
  • Python鍵盤輸入轉換為列表的實例

    Python鍵盤輸入轉換為列表的實例

    今天小編就為大家分享一篇Python鍵盤輸入轉換為列表的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-06-06
  • 利用PyTorch實現爬山算法

    利用PyTorch實現爬山算法

    這篇文章主要介紹了利用PyTorch實現爬山算法,爬山算法是一種局部擇優(yōu)的方法,采用啟發(fā)式方法,是對深度優(yōu)先搜索的一種改進,它利用反饋信息幫助生成解的決策,屬于人工智能算法的一種
    2022-07-07
  • 用十張圖詳解TensorFlow數據讀取機制(附代碼)

    用十張圖詳解TensorFlow數據讀取機制(附代碼)

    這篇文章主要介紹了用十張圖詳解TensorFlow數據讀取機制(附代碼),小編覺得挺不錯的,現在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-02-02
  • Python中經常使用的代碼片段

    Python中經常使用的代碼片段

    大家好,本篇文章主要講的是Python中經常使用的代碼片段,感興趣的同學趕快來看一看吧,對你有幫助的話記得收藏一下
    2022-01-01
  • 通過python爬蟲mechanize庫爬取本機ip地址的方法

    通過python爬蟲mechanize庫爬取本機ip地址的方法

    python中的mechanize算是一個比較古老的庫了,在python2的時代中,使用的多一些,在python3以后就很少使用了,現在已經是2202年了,可能很多人都沒聽說過mechanize,這不要緊,我們先來簡單的講解一下,如何使用mechanize,感興趣的朋友一起看看吧
    2022-08-08

最新評論