人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解
1.數(shù)據(jù)集分割
通過datasets可以直接分別獲取訓(xùn)練集和測試集。
通常我們會(huì)將訓(xùn)練集進(jìn)行分割,通過torch.utils.data.random_split方法。
所有的數(shù)據(jù)都需要通過torch.util.data.DataLoader進(jìn)行加載,才可以得到可以使用的數(shù)據(jù)集。
具體代碼如下:
2.
2.正則化
PyTorch中的正則化和機(jī)器學(xué)習(xí)中的一樣,不過設(shè)置方式不一樣。
直接在優(yōu)化器中,設(shè)置weight_decay即可。優(yōu)化器中,默認(rèn)的是L2范式,因此填入的參數(shù)就是lambda。想要使用L1范式的話,需要手動(dòng)寫出代碼。

3.動(dòng)量和學(xué)習(xí)率衰減
動(dòng)量的設(shè)置可以直接在優(yōu)化器中完成。通過momentum參數(shù)設(shè)置。
學(xué)習(xí)率的調(diào)整通過torch.optim.lr_scheduler中的ReduceLROnPlateau,StepLR實(shí)現(xiàn)。
ReduceLROnPlateau是自動(dòng)檢測損失值,并衰減學(xué)習(xí)率。
StepLR需要手動(dòng)設(shè)置衰減的參數(shù)。

以上就是人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解的詳細(xì)內(nèi)容,更多關(guān)于pytorch數(shù)據(jù)集分割及動(dòng)量的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python模擬登陸網(wǎng)頁的三種方法小結(jié)
如何使用Python模擬登陸網(wǎng)頁,尤其是在涉及到復(fù)雜的認(rèn)證機(jī)制時(shí)?這篇文章將詳細(xì)介紹Python模擬登陸網(wǎng)頁的三種方法,以及如何繞過一些常見的安全防護(hù)措施,需要的朋友可以參考下2024-01-01
JSON Web Tokens的實(shí)現(xiàn)原理
本文主要介紹了JSON Web Tokens的實(shí)現(xiàn)原理。具有很好的參考價(jià)值,下面跟著小編一起來看下吧2017-04-04
python掃描proxy并獲取可用代理ip的實(shí)例
下面小編就為大家?guī)硪黄猵ython掃描proxy并獲取可用代理ip的實(shí)例。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過來看看吧2017-08-08
keras 實(shí)現(xiàn)輕量級(jí)網(wǎng)絡(luò)ShuffleNet教程
這篇文章主要介紹了keras 實(shí)現(xiàn)輕量級(jí)網(wǎng)絡(luò)ShuffleNet教程,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-06-06

