亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

終于明白tf.reduce_sum()函數(shù)和tf.reduce_mean()函數(shù)用法

 更新時間:2022年11月28日 10:13:10   作者:不想禿頂還想當(dāng)程序猿  
這篇文章主要介紹了終于明白tf.reduce_sum()函數(shù)和tf.reduce_mean()函數(shù)用法,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

解讀tf.reduce_sum()函數(shù)和tf.reduce_mean()函數(shù)

在學(xué)習(xí)搭建神經(jīng)網(wǎng)絡(luò)的時候,照著敲別人的代碼,有一句代碼一直搞不清楚,就是下面這句了

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction), reduction_indices=[1]))

剛開始照著up主寫的代碼是這樣滴:

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction)))

然后就出現(xiàn)了這樣的結(jié)果:

709758.1
nan
nan
nan
nan
nan
nan
nan
nan
nan
nan

怎么肥事,對于萌新小白首先想到的就是找度娘,結(jié)果找到的方法都不行,然后開始查函數(shù),終于發(fā)現(xiàn)了原因,問題就出在reduce_sum()函數(shù)上,哈哈哈,然后小白又叕叕叕開始找博客學(xué)習(xí)reduce_sum()順帶學(xué)下reduce_mean(),結(jié)果看了好幾篇,還是腦袋一片漿糊,為啥用reduction_indices=[1],不用reduction_indices=[0]或者干脆不用,費(fèi)了九牛二虎之力終于讓我給弄懂了,趕緊記錄下來!!

-------------------分割線-------------------

1.tf.reduce_mean 函數(shù)

用于計算張量tensor沿著指定的數(shù)軸(tensor的某一維度)上的的平均值,主要用作降維或者計算tensor(圖像)的平均值。

reduce_mean(input_tensor,
? ? ? ? ? ? ? ? axis=None,
? ? ? ? ? ? ? ? keep_dims=False,
? ? ? ? ? ? ? ? name=None,
? ? ? ? ? ? ? ? reduction_indices=None)
  • 第一個參數(shù)input_tensor: 輸入的待降維的tensor;
  • 第二個參數(shù)axis: 指定的軸,如果不指定,則計算所有元素的均值;
  • 第三個參數(shù)keep_dims:是否降維度,設(shè)置為True,輸出的結(jié)果保持輸入tensor的形狀,設(shè)置為False,輸出結(jié)果會降低維度;
  • 第四個參數(shù)name: 操作的名稱;
  • 第五個參數(shù) reduction_indices:在以前版本中用來指定軸,已棄用;

2.tf.reduce_sum函數(shù)

計算一個張量的各個維度上元素的總和,一般只需設(shè)置兩個參數(shù)

reduce_sum (?
? ? input_tensor ,?
? ? axis = None ,?
? ? keep_dims = False ,?
? ? name = None ,?
? ? reduction_indices = None
?)
  • 第一個參數(shù)input_tensor: 輸入的tensor
  • 第二個參數(shù) reduction_indices:指定沿哪個維度計算元素的總和

最難的就是維度問題,反正本小白看了好幾個博客都沒弄太懂,最后還是按自己的理解,直接上例子

  • reduce_sum()
tf.reduce_sum
matrix1 = [[1.,2.,3.], ? ? ? ? ? ?#二維,元素為列表
? ? ? ? ? [4.,5.,6.]]
matrix2 = [[[1.,2.],[3.,4.]], ? ? ?#三維,元素為矩陣
? ? ? ? ? ?[[5.,6.],[7.,8.]]]

res_2 = tf.reduce_sum(matrix1)
res_3 = tf.reduce_sum(matrix2)
res1_2 = tf.reduce_sum(matrix1,reduction_indices=[0])
res1_3 = tf.reduce_sum(matrix2,reduction_indices=[0])
res2_2 = tf.reduce_sum(matrix1,reduction_indices=[1])
res2_3 = tf.reduce_sum(matrix2,reduction_indices=[1])

sess = tf.Session()
print("reduction_indices=None:res_2={},res_3={}".format(sess.run(res_2),sess.run(res_3)))
print("reduction_indices=[0]:res1_2={},res1_3={}".format(sess.run(res1_2),sess.run(res1_3)))
print("reduction_indices=[1]:res2_2={},res2_3={}".format(sess.run(res2_2),sess.run(res2_3)))

結(jié)果如下:

axis=None:res_2=21.0,res_3=36.0
axis=[0]:res1_2=[5. 7. 9.],res1_3=[[ 6.  8.]
                                    [10. 12.]]
axis=[1]:res2_2=[ 6. 15.],res2_3=[[ 4.  6.]
                                   [12. 14.]]

  • tf.reduce_mean

只需要把上面代碼的reduce_sum部分換成renduce_mean即可

res_2 = tf.reduce_mean(matrix1)
res_3 = tf.reduce_mean(matrix2)
res1_2 = tf.reduce_mean(matrix1,axis=[0])
res1_3 = tf.reduce_mean(matrix2,axis=[0])
res2_2 = tf.reduce_mean(matrix1,axis=[1])
res2_3 = tf.reduce_mean(matrix2,axis=[1])

結(jié)果如下:

axis=None:res_2=3.5,res_3=4.5
axis=[0]:res1_2=[2.5 3.5 4.5],res1_3=[[3. 4.]
                                       [5. 6.]]
axis=[1]:res2_2=[2. 5.],res2_3=[[2. 3.]
                                 [6. 7.]]

可以看到,reduction_indices和axis其實都是代表維度,當(dāng)為None時,reduce_sum和reduce_mean對所有元素進(jìn)行操作,當(dāng)為[0]時,其實就是按行操作,當(dāng)為[1]時,就是按列操作,對于三維情況,把最里面的括號當(dāng)成是一個數(shù),這樣就可以用二維的情況代替,最后得到的結(jié)果都是在原來的基礎(chǔ)上降一維,下面按專業(yè)的方法講解:

對于一個多維的array,最外層的括號里的元素的axis為0,然后每減一層括號,axis就加1,直到最后的元素為單個數(shù)字

如上例中的matrix1 = [[1., 2., 3.], [4., 5., 6.]]:

  • axis=0時,所包含的元素有:[1., 2., 3.]、[4., 5., 6.]
  • axis=1時,所包含的元素有:1.、2.、3.、4.、5.、6.

所以當(dāng)reduction_indices/axis=[0],應(yīng)對axis=0上的元素進(jìn)行操作,故reduce_sum()得到的結(jié)果為[5. 7. 9.],即把兩個數(shù)組對應(yīng)元素相加;當(dāng)reduction_indices/axis=[1],應(yīng)對axis=1上的元素進(jìn)行操作,故reduce_sum()得到的結(jié)果為[ 6. 15.],即把每個數(shù)組里的元素相加。reduce_mean()同理。

不難看出對于三維情況也是同樣的思路,如上例中的matrix2 = [[[1,2],[3,4]], [[5,6],[7,8]]]:

  • axis=0時,所包含的元素有:[[1., 2.],[3., 4.]]、[[5., 6.],[7., 8.]]
  • axis=1時,所包含的元素有:[1., 2.]、[3., 4.]、[5., 6.]、[7., 8.]
  • axis=2時,所包含的的元素有:1.、2.、3.、4.、5.、6.、7.、8.

當(dāng)reduction_indices/axis=[0],reduce_sum()得到的結(jié)果應(yīng)為[[ 6. 8.], [10. 12.]],即把兩個矩陣對應(yīng)位置元素相加;當(dāng)reduction_indices/axis=[1],reduce_sum()得到的結(jié)果應(yīng)為[[ 4. 6.], [12. 14.]],即把數(shù)組對應(yīng)元素相加。reduce_mean()同理。

一句話就是對哪一維操作,計算完后外面的括號就去掉,相當(dāng)于降維。

那么問題來了,當(dāng)reduction_indices/axis=[2]時呢???

  • 對于二維情況,當(dāng)然是報錯了,因為axis最大為1

ValueError: Invalid reduction dimension 2 for input with 2 dimensions. for 'Sum_4' (op: 'Sum') with input shapes: [2,3], [1] and with computed input tensors: input[1] = <2>.

  • 對于三維情況,reduce_sum()得到的結(jié)果為:[[ 3. 7.], [11. 15.]],即對最內(nèi)層括號里的元素求和。

-------------------分割線-------------------

回到最開始自己的問題,為什么只有設(shè)置參數(shù)reduction_indices=[1],loss才不為Nan

loss = tf.reduce_mean(tf.reduce_sum(tf.square(ys - prediction),reduction_indices=[1]))

本程序構(gòu)建的是一個3層神經(jīng)網(wǎng)絡(luò),輸入層只有1個神經(jīng)元,輸入數(shù)據(jù)為100個樣本點,即shape為(100,1)的列向量,隱藏層有10個神經(jīng)元,輸出層同樣只有1個神經(jīng)元,故最后輸出數(shù)據(jù)的shape也為(100,1)的列向量,那么reduce_sum的參數(shù)即為一個二維數(shù)組。

  • 若reduction_indices=[0],最后得到的是只有一個元素的數(shù)組,即[n]
  • 若reduction_indices=[1],最后得到的是有100個元素的數(shù)組,即[n1,n2…n100]
  • 若reduction_indices=None,最后得到的則是一個數(shù)

那么再使用reduce_mean()求平均時,想要得到的結(jié)果是sum/100,這時就只有reduce_sum()傳入?yún)?shù)reduction_indices=[1],才能實現(xiàn)想要的效果了。

完美解決?。。?/p>

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • 基于Python實現(xiàn)文章信息統(tǒng)計的小工具

    基于Python實現(xiàn)文章信息統(tǒng)計的小工具

    及時的統(tǒng)計可以更好的去分析讀者對于內(nèi)容的需求,了解文章內(nèi)容的價值,以及從側(cè)面認(rèn)識自己在知識創(chuàng)作方面的能力。本文就來用Python制作一個文章信息統(tǒng)計的小工具?,希望對大家有所幫助
    2023-02-02
  • Python繪圖實現(xiàn)顯示中文

    Python繪圖實現(xiàn)顯示中文

    今天小編就為大家分享一篇Python繪圖實現(xiàn)顯示中文,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • 使用 NumPy 和 Matplotlib 繪制函數(shù)圖

    使用 NumPy 和 Matplotlib 繪制函數(shù)圖

    Matplotlib 是 Python 的繪圖庫。 它可與 NumPy 一起使用,提供了一種有效的 MatLab 開源替代方案。 它也可以和圖形工具包一起使用,如 PyQt 和 wxPython
    2021-09-09
  • 基于Python os模塊常用命令介紹

    基于Python os模塊常用命令介紹

    下面小編就為大家?guī)硪黄赑ython os模塊常用命令介紹。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-11-11
  • 詳解OpenCV圖像的概念和基本操作

    詳解OpenCV圖像的概念和基本操作

    opencv最主要的的功能是用于圖像處理,所以圖像的概念貫穿了整個opencv,與其相關(guān)的核心類就是Mat。這篇文章主要介紹了OpenCV圖像的概念和基本操作,需要的朋友可以參考下
    2021-10-10
  • Python文本文件的合并操作方法代碼實例

    Python文本文件的合并操作方法代碼實例

    這篇文章主要介紹了Python文本文件的合并操作方法代碼實例,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
    2020-03-03
  • pytorch中交叉熵?fù)p失函數(shù)的使用小細(xì)節(jié)

    pytorch中交叉熵?fù)p失函數(shù)的使用小細(xì)節(jié)

    這篇文章主要介紹了pytorch中交叉熵?fù)p失函數(shù)的使用細(xì)節(jié),具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2023-02-02
  • python操作列表的函數(shù)使用代碼詳解

    python操作列表的函數(shù)使用代碼詳解

    這篇文章主要介紹了python操作列表的函數(shù)使用代碼詳解,具有一定借鑒價值,需要的朋友可以參考下
    2017-12-12
  • 教你Pycharm安裝使用requests第三方庫的詳細(xì)教程

    教你Pycharm安裝使用requests第三方庫的詳細(xì)教程

    PyCharm安裝第三方庫是十分方便的,無需pip或其他工具,平臺就自帶了這個功能而且操作十分簡便,今天通過本文帶領(lǐng)大家學(xué)習(xí)Pycharm安裝使用requests第三方庫的詳細(xì)教程,感興趣的朋友一起看看吧
    2021-07-07
  • 自然語言處理之文本熱詞提取(含有《源碼》和《數(shù)據(jù)》)

    自然語言處理之文本熱詞提取(含有《源碼》和《數(shù)據(jù)》)

    這篇文章主要介紹了自然語言處理之文本熱詞提取,主要就是通過jieba的posseg模塊將一段文字分段并賦予不同字段不同意思,然后通過頻率計算出熱頻詞,需要的朋友可以參考下
    2022-05-05

最新評論