人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解
1.數(shù)據(jù)集分割
通過(guò)datasets可以直接分別獲取訓(xùn)練集和測(cè)試集。
通常我們會(huì)將訓(xùn)練集進(jìn)行分割,通過(guò)torch.utils.data.random_split方法。
所有的數(shù)據(jù)都需要通過(guò)torch.util.data.DataLoader進(jìn)行加載,才可以得到可以使用的數(shù)據(jù)集。
具體代碼如下:
2.
2.正則化
PyTorch中的正則化和機(jī)器學(xué)習(xí)中的一樣,不過(guò)設(shè)置方式不一樣。
直接在優(yōu)化器中,設(shè)置weight_decay即可。優(yōu)化器中,默認(rèn)的是L2范式,因此填入的參數(shù)就是lambda。想要使用L1范式的話,需要手動(dòng)寫出代碼。

3.動(dòng)量和學(xué)習(xí)率衰減
動(dòng)量的設(shè)置可以直接在優(yōu)化器中完成。通過(guò)momentum參數(shù)設(shè)置。
學(xué)習(xí)率的調(diào)整通過(guò)torch.optim.lr_scheduler中的ReduceLROnPlateau,StepLR實(shí)現(xiàn)。
ReduceLROnPlateau是自動(dòng)檢測(cè)損失值,并衰減學(xué)習(xí)率。
StepLR需要手動(dòng)設(shè)置衰減的參數(shù)。

以上就是人工智能學(xué)習(xí)Pytorch數(shù)據(jù)集分割及動(dòng)量示例詳解的詳細(xì)內(nèi)容,更多關(guān)于pytorch數(shù)據(jù)集分割及動(dòng)量的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python模擬登陸網(wǎng)頁(yè)的三種方法小結(jié)
如何使用Python模擬登陸網(wǎng)頁(yè),尤其是在涉及到復(fù)雜的認(rèn)證機(jī)制時(shí)?這篇文章將詳細(xì)介紹Python模擬登陸網(wǎng)頁(yè)的三種方法,以及如何繞過(guò)一些常見的安全防護(hù)措施,需要的朋友可以參考下2024-01-01
JSON Web Tokens的實(shí)現(xiàn)原理
本文主要介紹了JSON Web Tokens的實(shí)現(xiàn)原理。具有很好的參考價(jià)值,下面跟著小編一起來(lái)看下吧2017-04-04
Python打包時(shí)包含字庫(kù)文件的幾種常見方法
這篇文章主要給大家介紹了關(guān)于Python打包時(shí)包含字庫(kù)文件的幾種常見方法,通過(guò)示例講解了基本方法、使用spec文件、批量添加字體文件夾和在代碼中訪問(wèn)字體文件的注意事項(xiàng),需要的朋友可以參考下2025-05-05
python掃描proxy并獲取可用代理ip的實(shí)例
下面小編就為大家?guī)?lái)一篇python掃描proxy并獲取可用代理ip的實(shí)例。小編覺得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-08-08
keras 實(shí)現(xiàn)輕量級(jí)網(wǎng)絡(luò)ShuffleNet教程
這篇文章主要介紹了keras 實(shí)現(xiàn)輕量級(jí)網(wǎng)絡(luò)ShuffleNet教程,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-06-06
python使用pyecharts繪制簡(jiǎn)單的折線圖
這篇文章講給大家介紹一下python使用pyecharts繪制簡(jiǎn)單的折線圖的黨法步驟,文中有詳細(xì)的代碼示例講解,對(duì)我們學(xué)習(xí)或工作有一定的幫助,需要的朋友可以參考下2023-07-07

