Tensorflow中使用cpu和gpu有什么區(qū)別
更新時間:2022年05月16日 14:48:16 作者:風華明遠
這篇文章主要介紹了Tensorflow中使用cpu和gpu有什么區(qū)別,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
使用cpu和gpu的區(qū)別
在Tensorflow中使用gpu和cpu是有很大的差別的。在小數(shù)據(jù)集的情況下,cpu和gpu的性能差別不大。
不過在大數(shù)據(jù)集的情況下,cpu的時間顯著增加,而gpu變化并不明顯。
不過,我的筆記本電腦的風扇終于全功率運行了。
import tensorflow as tf import timeit import numpy as np import matplotlib.pyplot as plt def cpu_run(num): with tf.device('/cpu:0'): cpu_a=tf.random.normal([1,num]) cpu_b=tf.random.normal([num,1]) c=tf.matmul(cpu_a,cpu_b) return c def gpu_run(num): with tf.device('/gpu:0'): gpu_a=tf.random.normal([1,num]) gpu_b=tf.random.normal([num,1]) c=tf.matmul(gpu_a,gpu_b) return c k=10 m=7 cpu_result=np.arange(m,dtype=np.float32) gpu_result=np.arange(m,dtype=np.float32) x_time=np.arange(m) for i in range(m): k=k*10 x_time[i]=k cpu_str='cpu_run('+str(k)+')' gpu_str='gpu_run('+str(k)+')' #print(cpu_str) cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10) gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10) # 正式計算10次,取平均時間 cpu_time=timeit.timeit(cpu_str,'from __main__ import cpu_run',number=10) gpu_time=timeit.timeit(gpu_str,'from __main__ import gpu_run',number=10) cpu_result[i]=cpu_time gpu_result[i]=gpu_time print(cpu_result) print(gpu_result) fig, ax = plt.subplots() ax.set_xscale("log") ax.set_adjustable("datalim") ax.plot(x_time,cpu_result) ax.plot(x_time,gpu_result) ax.grid() plt.draw() plt.show()
藍線是cpu的耗時,而紅線是gpu的耗時。
一些術(shù)語的比較(tensorflow和pytorch/cpu和gpu/)
tensorflow和pytorch
- pytorch是一個動態(tài)框架,tensorflow是一個靜態(tài)框架。
- tensorflow是一個靜態(tài)框架體現(xiàn)在:需要先構(gòu)建一個tensorflow的計算圖,構(gòu)建好之后這樣的一個計算圖是不能變的,然后再傳入不同的數(shù)據(jù)進去進行計算。
- 這種靜態(tài)框架帶來的問題是:固定了計算的流程,勢必帶來不靈活性,如果要改變計算的邏輯或者是隨著時間變化的計算邏輯,這樣的動態(tài)計算tensorflow是是無法實現(xiàn)的。
- pytorch是一個動態(tài)框架,和python的邏輯一樣,對變量做任何操作都是靈活的。
- 一個好的框架需要具備三點:(1)對大的計算圖能方便的實現(xiàn)(2)能自動求變量的導數(shù)(3)能簡單的運行在GPU上。這三點pytorch都可以達到
- tensorflow在gpu上的分布式計算更為出色,在數(shù)據(jù)量巨大的時候效率比pytorch要高。企業(yè)很多都是用的tensorflow,pytorch在學術(shù)科研上使用多些。
- pytorch包括三個層次:tensor/variable/module。tensor即張量的意思,由于是矩陣的運算,所以適合在矩陣上跑。variable就是tensor的封裝,封裝的目的就是為了能夠保存住該variable在整個計算圖中的位置,能夠知道計算圖中各個變量之間的相互依賴關(guān)系,這樣就能夠反向求梯度。module是一個更高的層次,是一個神經(jīng)網(wǎng)絡的層次,可以直接調(diào)用全連接層、卷積層等神經(jīng)網(wǎng)絡。
cpu和gpu
- cpu更少的核,但是單個核的計算能力很強
- gpu:更多的核,每個核的計算能力不如cpu,所以更適合做并行計算,如矩陣計算,深度學習就是很多的矩陣計算。
cuda
- 直接寫cuda代碼就類似寫匯編語言
- 比cuda高級的是cudnn
- 比cudnn高級的是用框架tensorflow/caffe/pytorch
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
您可能感興趣的文章:
- 運行tensorflow python程序,限制對GPU和CPU的占用操作
- 基于Tensorflow使用CPU而不用GPU問題的解決
- 在tensorflow中設置使用某一塊GPU、多GPU、CPU的操作
- tensorflow指定CPU與GPU運算的方法實現(xiàn)
- 卸載tensorflow-cpu重裝tensorflow-gpu操作
- 使用Tensorflow-GPU禁用GPU設置(CPU與GPU速度對比)
- 詳解tf.device()指定tensorflow運行的GPU或CPU設備實現(xiàn)
- 用gpu訓練好的神經(jīng)網(wǎng)絡,用tensorflow-cpu跑出錯的原因及解決方案
- tensorflow之如何使用GPU而不是CPU問題
- TensorFlow安裝CPU版本和GPU版本的實現(xiàn)步驟
相關(guān)文章
Python Numpy實現(xiàn)計算矩陣的均值和標準差詳解
NumPy(Numerical Python)是Python的一種開源的數(shù)值計算擴展。這種工具可用來存儲和處理大型矩陣,比Python自身的嵌套列表結(jié)構(gòu)要高效的多。本文主要介紹用NumPy實現(xiàn)計算矩陣的均值和標準差,感興趣的小伙伴可以了解一下2021-11-11Python實現(xiàn)視頻畫質(zhì)增強的示例代碼
這篇文章主要為大家詳細介紹了如何利用Python語言實現(xiàn)對視頻進行畫質(zhì)增強功能,文中的示例代碼講解詳細,感興趣的小伙伴可以嘗試一下2022-04-04基于Pytorch的神經(jīng)網(wǎng)絡之Regression的實現(xiàn)
本文主要介紹了基于Pytorch的神經(jīng)網(wǎng)絡之Regression的實現(xiàn),文中通過示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下2022-03-03