亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

python中的Pytorch建模流程匯總

 更新時間:2022年03月03日 09:38:22   作者:Python學習與數(shù)據(jù)挖掘  
這篇文章主要介紹了python中的Pytorch建模流程匯總,主要幫大家?guī)椭蠹沂崂砩窠?jīng)網(wǎng)絡訓練的架構,具有一的的參考價值,需要的小伙伴可以參考一下,希望對你的學習有所幫助

本節(jié)內(nèi)容學習幫助大家梳理神經(jīng)網(wǎng)絡訓練的架構。

一般我們訓練神經(jīng)網(wǎng)絡有以下步驟:

  • 導入庫
  • 設置訓練參數(shù)的初始值
  • 導入數(shù)據(jù)集并制作數(shù)據(jù)集
  • 定義神經(jīng)網(wǎng)絡架構
  • 定義訓練流程
  • 訓練模型

推薦文章:

python實現(xiàn)可視化大屏

分享4款 Python 自動數(shù)據(jù)分析神器

以下,我就將上述步驟使用代碼進行注釋講解:

1 導入庫

import torch
from torch import nn
from torch.nn import functional as F
from torch import optim
from torch.utils.data import DataLoader, DataLoader
import torchvision
import torchvision.transforms as transforms

2 設置初始值

# 學習率
lr = 0.15
# 優(yōu)化算法參數(shù)
gamma = 0.8
# 每次小批次訓練個數(shù)
bs = 128
# 整體數(shù)據(jù)循環(huán)次數(shù)
epochs = 10

3 導入并制作數(shù)據(jù)集

本次我們使用FashionMNIST圖像數(shù)據(jù)集,每個圖像是一個28*28的像素數(shù)組,共有10個衣物類別,比如連衣裙、運動鞋、包等。

注:初次運行下載需要等待較長時間。

# 導入數(shù)據(jù)集
mnist = torchvision.datasets.FashionMNIST(
? ? root = './Datastes'
? ? , train = True
? ? , download = True
? ? , transform = transforms.ToTensor())
? ??
# 制作數(shù)據(jù)集
batchdata = DataLoader(mnist
? ? ? ? ? ? ? ? ? ? ? ?, batch_size = bs
? ? ? ? ? ? ? ? ? ? ? ?, shuffle = True
? ? ? ? ? ? ? ? ? ? ? ?, drop_last = False)

我們可以對數(shù)據(jù)進行檢查:

for x, y in batchdata:
? ? print(x.shape)
? ? print(y.shape)
? ? break

# torch.Size([128, 1, 28, 28])
# torch.Size([128])

可以看到一個batch中有128個樣本,每個樣本的維度是1*28*28。

之后我們確定模型的輸入維度與輸出維度:

# 輸入的維度
input_ = mnist.data[0].numel()
# 784

# 輸出的維度
output_ = len(mnist.targets.unique())
# 10

4 定義神經(jīng)網(wǎng)絡架構

先使用一個128個神經(jīng)元的全連接層,然后用relu激活函數(shù),再將其結果映射到標簽的維度,并使用softmax進行激活。

# 定義神經(jīng)網(wǎng)絡架構
class Model(nn.Module):
? ? def __init__(self, in_features, out_features):
? ? ? ? super().__init__()
? ? ? ? self.linear1 = nn.Linear(in_features, 128, bias = True)
? ? ? ? self.output = nn.Linear(128, out_features, bias = True)
? ??
? ? def forward(self, x):
? ? ? ? x = x.view(-1, 28*28)
? ? ? ? sigma1 = torch.relu(self.linear1(x))
? ? ? ? sigma2 = F.log_softmax(self.output(sigma1), dim = -1)
? ? ? ? return sigma2

5 定義訓練流程

在實際應用中,我們一般會將訓練模型部分封裝成一個函數(shù),而這個函數(shù)可以繼續(xù)細分為以下幾步:

  • 定義損失函數(shù)與優(yōu)化器
  • 完成向前傳播
  • 計算損失
  • 反向傳播
  • 梯度更新
  • 梯度清零

在此六步核心操作的基礎上,我們通常還需要對模型的訓練進度、損失值與準確度進行監(jiān)視。

注釋代碼如下:

# 封裝訓練模型的函數(shù)
def fit(net, batchdata, lr, gamma, epochs):
# 參數(shù):模型架構、數(shù)據(jù)、學習率、優(yōu)化算法參數(shù)、遍歷數(shù)據(jù)次數(shù)

? ? # 5.1 定義損失函數(shù)
? ? criterion = nn.NLLLoss()
? ? # 5.1 定義優(yōu)化算法
? ? opt = optim.SGD(net.parameters(), lr = lr, momentum = gamma)
? ??
? ? # 監(jiān)視進度:循環(huán)之前,一個樣本都沒有看過
? ? samples = 0
? ? # 監(jiān)視準確度:循環(huán)之前,預測正確的個數(shù)為0
? ? corrects = 0
? ??
? ? # 全數(shù)據(jù)訓練幾次
? ? for epoch in range(epochs):
? ? ? ? # 對每個batch進行訓練
? ? ? ? for batch_idx, (x, y) in enumerate(batchdata):
? ? ? ? ? ? # 保險起見,將標簽轉為1維,與樣本對齊
? ? ? ? ? ? y = y.view(x.shape[0])
? ? ? ? ? ??
? ? ? ? ? ? # 5.2 正向傳播
? ? ? ? ? ? sigma = net.forward(x)
? ? ? ? ? ? # 5.3 計算損失
? ? ? ? ? ? loss = criterion(sigma, y)
? ? ? ? ? ? # 5.4 反向傳播
? ? ? ? ? ? loss.backward()
? ? ? ? ? ? # 5.5 更新梯度
? ? ? ? ? ? opt.step()
? ? ? ? ? ? # 5.6 梯度清零
? ? ? ? ? ? opt.zero_grad()
? ? ? ? ? ??
? ? ? ? ? ? # 監(jiān)視進度:每訓練一個batch,模型見過的數(shù)據(jù)就會增加x.shape[0]
? ? ? ? ? ? samples += x.shape[0]
? ? ? ? ? ??
? ? ? ? ? ? # 求解準確度:全部判斷正確的樣本量/已經(jīng)看過的總樣本量
? ? ? ? ? ? # 得到預測標簽
? ? ? ? ? ? yhat = torch.max(sigma, -1)[1]
? ? ? ? ? ? # 將正確的加起來
? ? ? ? ? ? corrects += torch.sum(yhat == y)
? ? ? ? ? ??
? ? ? ? ? ? # 每200個batch和最后結束時,打印模型的進度
? ? ? ? ? ? if (batch_idx + 1) % 200 == 0 or batch_idx == (len(batchdata) - 1):
? ? ? ? ? ? ? ? # 監(jiān)督模型進度
? ? ? ? ? ? ? ? print("Epoch{}:[{}/{} {: .0f}%], Loss:{:.6f}, Accuracy:{:.6f}".format(
? ? ? ? ? ? ? ? ? ? epoch + 1
? ? ? ? ? ? ? ? ? ? , samples
? ? ? ? ? ? ? ? ? ? , epochs*len(batchdata.dataset)
? ? ? ? ? ? ? ? ? ? , 100*samples/(epochs*len(batchdata.dataset))
? ? ? ? ? ? ? ? ? ? , loss.data.item()
? ? ? ? ? ? ? ? ? ? , float(100.0*corrects/samples)))

6 訓練模型

# 設置隨機種子
torch.manual_seed(51)

# 實例化模型
net = Model(input_, output_)

# 訓練模型
fit(net, batchdata, lr, gamma, epochs)
# Epoch1:[25600/600000 ?4%], Loss:0.524430, Accuracy:69.570312
# Epoch1:[51200/600000 ?9%], Loss:0.363422, Accuracy:74.984375
# ......
# Epoch10:[600000/600000 ?100%], Loss:0.284664, Accuracy:85.771835

現(xiàn)在我們已經(jīng)用Pytorch訓練了最基礎的神經(jīng)網(wǎng)絡,并且可以查看其訓練成果。大家可以將代碼復制進行運行!

雖然沒有用到復雜的模型,但是我們在每次建模時的基本思想都是一致的

到此這篇關于python中的Pytorch建模流程匯總的文章就介紹到這了,更多相關Pytorch建模流程內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!

相關文章

  • 解決python調(diào)用自己文件函數(shù)/執(zhí)行函數(shù)找不到包問題

    解決python調(diào)用自己文件函數(shù)/執(zhí)行函數(shù)找不到包問題

    這篇文章主要介紹了解決python調(diào)用自己文件函數(shù)/執(zhí)行函數(shù)找不到包問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-06-06
  • Python+Opencv實現(xiàn)圖像模板匹配詳解

    Python+Opencv實現(xiàn)圖像模板匹配詳解

    模板匹配可以看作是對象檢測的一種非?;镜男问?。使用模板匹配,我們可以使用包含要檢測對象的“模板”來檢測輸入圖像中的對象。本文為大家介紹了圖像模板匹配的實現(xiàn)方法,需要的可以參考一下
    2022-09-09
  • Python接口自動化之接口依賴

    Python接口自動化之接口依賴

    這篇文章主要介紹了python接口自動化測試之接口數(shù)據(jù)依賴的實現(xiàn)方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2021-08-08
  • jupyter 實現(xiàn)notebook中顯示完整的行和列

    jupyter 實現(xiàn)notebook中顯示完整的行和列

    這篇文章主要介紹了jupyter 實現(xiàn)notebook中顯示完整的行和列,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-04-04
  • 在Python程序中實現(xiàn)分布式進程的教程

    在Python程序中實現(xiàn)分布式進程的教程

    這篇文章主要介紹了在Python程序中實現(xiàn)分布式進程的教程,在多進程編程中十分有用,示例代碼基于Python2.x版本,需要的朋友可以參考下
    2015-04-04
  • Python利用request庫實現(xiàn)翻譯接口

    Python利用request庫實現(xiàn)翻譯接口

    這篇文章主要為大家詳細介紹了Python如何利用request庫打造自己的翻譯接口,文中的示例代碼講解詳細,感興趣的小伙伴可以跟隨小編一起學習一下
    2023-04-04
  • opencv 分類白天與夜景視頻的方法

    opencv 分類白天與夜景視頻的方法

    最近有個數(shù)據(jù)需要分類處理,是一批含有白天跟夜晚的視頻數(shù)據(jù),需要進行區(qū)分開來,本文就來實現(xiàn),感興趣的可以了解一下
    2021-06-06
  • python編譯pyc文件的過程解析

    python編譯pyc文件的過程解析

    pyc是一種二進制文件,是由py文件經(jīng)過編譯后,生成的文件,是一種byte code,這篇文章主要介紹了python編譯pyc文件,需要的朋友可以參考下
    2021-09-09
  • Python sort 自定義函數(shù)排序問題

    Python sort 自定義函數(shù)排序問題

    這篇文章主要介紹了Python sort 自定義函數(shù)排序問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教
    2023-09-09
  • 解決tensorflow添加ptb庫的問題

    解決tensorflow添加ptb庫的問題

    今天小編就為大家分享一篇解決tensorflow添加ptb庫的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-02-02

最新評論