Pytorch創(chuàng)建隨機(jī)值張量的過(guò)程詳解
2-Pytorch創(chuàng)建隨機(jī)值張量
1 導(dǎo)入必備庫(kù)
import torch import numpy as np
2 使用torch.rand()創(chuàng)建0-1均勻分布的隨機(jī)數(shù)
t = torch.rand(2,3) print(t)
輸出:
tensor([[0.1452, 0.1435, 0.2124],
[0.6646, 0.5232, 0.1572]])
3 使用torch.randn()創(chuàng)建正態(tài)分布的隨機(jī)數(shù)
t = torch.randn(2,3) print(t)
輸出:
tensor([[-0.5325, -0.4938, 0.6301],
[-0.6313, -0.1412, 2.2926]])
4 使用torch.zeros()創(chuàng)建全0張量
t = torch.zeros(3) print(t) print(t.dtype)
輸出:
tensor([0., 0., 0.])
torch.float32
5 使用torch.ones()創(chuàng)建全1張量
t = torch.ones(3) print(t) print(t.dtype)
輸出:
tensor([1., 1., 1.])
torch.float32
6 從另一個(gè)張量創(chuàng)建新的張量
x = torch.zeros_like(t) print(x) x = torch.rand_like(t) print(x)
輸出:
tensor([0., 0., 0.])
tensor([0.6516, 0.5740, 0.6379])
7 張量的屬性:
tensor.shape返回張量的形狀,與tensor.size()方法等價(jià),tensor.dtype返回當(dāng)前張量的類型
t = torch.ones(2,3,dtype= torch.float64) print(t.shape) print(t.size()) print(t.size(1)) # 返回第二維度大小 print(t.dtype) print(t.device)
輸出:
torch.Size([2, 3])
torch.Size([2, 3])
3
torch.float64
cpu
8 將張量移動(dòng)到顯存,使用tensor.to()方法將張量移動(dòng)到GPU上
# 如果GPU可用,將張量移動(dòng)到顯存 # 設(shè)置使用哪塊芯片,多塊GPU使用逗號(hào)隔開(kāi) # import os # os.environ['CUDA_VISIBLE_DEVICES'] = '0' # 多塊GPU設(shè)置,如:'0,1,2' if torch.cuda.is_available(): t = t.to('cuda') print(t.device)
輸出:
cuda:0
9 更穩(wěn)妥的移動(dòng)顯存方法,無(wú)論是否有GPU都能保證運(yùn)行
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # 啟動(dòng)cuda print("Using {} device".format(device)) # 打印當(dāng)前設(shè)備 t = t.to(device) print(t.device)
輸出:
Using cuda device
cuda:0
到此這篇關(guān)于Pytorch創(chuàng)建隨機(jī)值張量的文章就介紹到這了,更多相關(guān)Pytorch隨機(jī)值張量?jī)?nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python asyncio異步編程常見(jiàn)問(wèn)題小結(jié)
本文主要介紹了Python asyncio異步編程常見(jiàn)問(wèn)題小結(jié),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-01-01python進(jìn)程的狀態(tài)、創(chuàng)建及使用方法詳解
這篇文章主要介紹了python進(jìn)程的狀態(tài)、創(chuàng)建及使用方法,結(jié)合實(shí)例形式詳細(xì)分析了Python進(jìn)程的概念、原理、工作狀態(tài)、創(chuàng)建以及使用方法,需要的朋友可以參考下2019-12-12Pytorch pth 格式轉(zhuǎn)ONNX 格式的詳細(xì)過(guò)程
PyTorch 訓(xùn)練的模型,需要在Jetson nano 上部署,jetson 原生提供了TensorRT 的支持,所以一個(gè)比較好的方式是把它轉(zhuǎn)換成ONNX 格式,然后在通過(guò)ONNX 轉(zhuǎn)換成TensorRT 格式,這篇文章主要介紹了Pytorch pth 格式轉(zhuǎn)ONNX 格式,需要的朋友可以參考下2023-05-05解決Djang2.0.1中的reverse導(dǎo)入失敗的問(wèn)題
今天小編就為大家分享一篇解決Djang2.0.1中的reverse導(dǎo)入失敗的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2019-08-08通過(guò)LyScript實(shí)現(xiàn)從文本中讀寫(xiě)ShellCode
LyScript 插件通過(guò)配合內(nèi)存讀寫(xiě),可實(shí)現(xiàn)對(duì)特定位置的ShellCode代碼的導(dǎo)出。本文將利用這一特性實(shí)現(xiàn)從文本中讀寫(xiě)ShellCode,感興趣的可以了解一下2022-08-08快速解釋如何使用pandas的inplace參數(shù)的使用
這篇文章主要介紹了快速解釋如何使用pandas的inplace參數(shù)的使用,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-07-07Python+Redis實(shí)現(xiàn)布隆過(guò)濾器
布隆過(guò)濾器(Bloom Filter)是1970年由布隆提出的。它實(shí)際上是一個(gè)很長(zhǎng)的二進(jìn)制向量和一系列隨機(jī)映射函數(shù)。這篇文章主要介紹了Python+Redis實(shí)現(xiàn)布隆過(guò)濾器,需要的朋友可以參考下2019-12-12