亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

梯度下降法介紹及利用Python實現的方法示例

 更新時間:2017年07月12日 08:39:19   作者:yhao浩  
梯度下降算法是一個很基本的算法,在機器學習和優(yōu)化中有著非常重要的作用,下面這篇文章主要給大家介紹了關于利用Python實現梯度下降法的相關資料,對大家具有一定的參考學習價值,需要的朋友們下面來一起看看吧。

本文主要給大家介紹了梯度下降法及利用Python實現的相關內容,分享出來供大家參考學習,下面話不多說,來一起看看詳細的介紹吧。

梯度下降法介紹

梯度下降法(gradient descent),又名最速下降法(steepest descent)是求解無約束最優(yōu)化問題最常用的方法,它是一種迭代方法,每一步主要的操作是求解目標函數的梯度向量,將當前位置的負梯度方向作為搜索方向(因為在該方向上目標函數下降最快,這也是最速下降法名稱的由來)。

梯度下降法特點:越接近目標值,步長越小,下降速度越慢。

直觀上來看如下圖所示:


這里每一個圈代表一個函數梯度,最中心表示函數極值點,每次迭代根據當前位置求得的梯度(用于確定搜索方向以及與步長共同決定前進速度)和步長找到一個新的位置,這樣不斷迭代最終到達目標函數局部最優(yōu)點(如果目標函數是凸函數,則到達全局最優(yōu)點)。

下面我們將通過公式來具體說明梯度下降法

下面這個h(θ)是我們的擬合函數


也可以用向量的形式進行表示:


下面函數是我們需要進行最優(yōu)化的風險函數,其中的每一項都表示在已有的訓練集上我們的擬合函數與y之間的殘差,計算其平方損失函數作為我們構建的風險函數(參見最小二乘法及其Python實現)


這里我們乘上1/2是為了方便后面求偏導數時結果更加簡潔,之所以能乘上1/2是因為乘上這個系數后對求解風險函數最優(yōu)值沒有影響。

我們的目標就是要最小化風險函數,使得我們的擬合函數能夠最大程度的對目標函數y進行擬合,即:


后面的具體梯度求解都是圍繞這個目標來進行。

批量梯度下降BGD

按照傳統(tǒng)的思想,我們需要對上述風險函數中的每個求其偏導數,得到每個對應的梯度


這里表示第i個樣本點的第j分量,即h(θ)中的

接下來由于我們要最小化風險函數,故按照每個參數的負梯度方向來更新每一個


這里的α表示每一步的步長

從上面公式可以注意到,它得到的是一個全局最優(yōu)解,但是每迭代一步,都要用到訓練集所有的數據,如果m很大,那么可想而知這種方法的迭代速度!!所以,這就引入了另外一種方法,隨機梯度下降。

隨機梯度下降SGD

因為批量梯度下降在訓練集很大的情況下迭代速度非常之慢,所以在這種情況下再使用批量梯度下降來求解風險函數的最優(yōu)化問題是不具有可行性的,在此情況下,提出了——隨機梯度下降
我們將上述的風險函數改寫成以下形式:


其中,


稱為樣本點的損失函數

接下來我們對每個樣本的損失函數,對每個求其偏導數,得到每個對應的梯度


然后根據每個參數的負梯度方向來更新每一個


與批量梯度下降相比,隨機梯度下降每次迭代只用到了一個樣本,在樣本量很大的情況下,常見的情況是只用到了其中一部分樣本數據即可將θ迭代到最優(yōu)解。因此隨機梯度下降比批量梯度下降在計算量上會大大減少。

SGD有一個缺點是,其噪音較BGD要多,使得SGD并不是每次迭代都向著整體最優(yōu)化方向。而且SGD因為每次都是使用一個樣本進行迭代,因此最終求得的最優(yōu)解往往不是全局最優(yōu)解,而只是局部最優(yōu)解。但是大的整體的方向是向全局最優(yōu)解的,最終的結果往往是在全局最優(yōu)解附近。

下面是兩種方法的圖形展示:

從上述圖形可以看出,SGD因為每次都是用一個樣本點進行梯度搜索,因此其最優(yōu)化路徑看上去比較盲目(這也是隨機梯度下降名字的由來)。

對比其優(yōu)劣點如下:

批量梯度下降:

優(yōu)點:全局最優(yōu)解;易于并行實現;總體迭代次數不多

缺點:當樣本數目很多時,訓練過程會很慢,每次迭代需要耗費大量的時間。

隨機梯度下降:

優(yōu)點:訓練速度快,每次迭代計算量不大

缺點:準確度下降,并不是全局最優(yōu);不易于并行實現;總體迭代次數比較多。

Python實現方法示例

上面我們講解了什么是梯度下降法,以及如何求解梯度下降,下面我們將通過python來實現梯度下降法。

# _*_ coding: utf-8 _*_ 
# 作者: yhao 
# 博客: http://blog.csdn.net/yhao2014 
# 郵箱: yanhao07@sina.com 
 
# 訓練集 
# 每個樣本點有3個分量 (x0,x1,x2) 
x = [(1, 0., 3), (1, 1., 3), (1, 2., 3), (1, 3., 2), (1, 4., 4)] 
# y[i] 樣本點對應的輸出 
y = [95.364, 97.217205, 75.195834, 60.105519, 49.342380] 
 
# 迭代閥值,當兩次迭代損失函數之差小于該閥值時停止迭代 
epsilon = 0.0001 
 
# 學習率 
alpha = 0.01 
diff = [0, 0] 
max_itor = 1000 
error1 = 0 
error0 = 0 
cnt = 0 
m = len(x) 
 
 
# 初始化參數 
theta0 = 0 
theta1 = 0 
theta2 = 0 
 
while True: 
 cnt += 1 
 
 # 參數迭代計算 
 for i in range(m): 
 # 擬合函數為 y = theta0 * x[0] + theta1 * x[1] +theta2 * x[2] 
 # 計算殘差 
 diff[0] = (theta0 + theta1 * x[i][1] + theta2 * x[i][2]) - y[i] 
 
 # 梯度 = diff[0] * x[i][j] 
 theta0 -= alpha * diff[0] * x[i][0] 
 theta1 -= alpha * diff[0] * x[i][1] 
 theta2 -= alpha * diff[0] * x[i][2] 
 
 # 計算損失函數 
 error1 = 0 
 for lp in range(len(x)): 
 error1 += (y[lp]-(theta0 + theta1 * x[lp][1] + theta2 * x[lp][2]))**2/2 
 
 if abs(error1-error0) < epsilon: 
 break 
 else: 
 error0 = error1 
 
 print ' theta0 : %f, theta1 : %f, theta2 : %f, error1 : %f' % (theta0, theta1, theta2, error1) 
print 'Done: theta0 : %f, theta1 : %f, theta2 : %f' % (theta0, theta1, theta2) 
print '迭代次數: %d' % cnt 

結果(截取部分):

 theta0 : 2.782632, theta1 : 3.207850, theta2 : 7.998823, error1 : 7.508687 
 theta0 : 4.254302, theta1 : 3.809652, theta2 : 11.972218, error1 : 813.550287 
 theta0 : 5.154766, theta1 : 3.351648, theta2 : 14.188535, error1 : 1686.507256 
 theta0 : 5.800348, theta1 : 2.489862, theta2 : 15.617995, error1 : 2086.492788 
 theta0 : 6.326710, theta1 : 1.500854, theta2 : 16.676947, error1 : 2204.562407 
 theta0 : 6.792409, theta1 : 0.499552, theta2 : 17.545335, error1 : 2194.779569 
 theta0 : 74.892395, theta1 : -13.494257, theta2 : 8.587471, error1 : 87.700881 
 theta0 : 74.942294, theta1 : -13.493667, theta2 : 8.571632, error1 : 87.372640 
 theta0 : 74.992087, theta1 : -13.493079, theta2 : 8.555828, error1 : 87.045719 
 theta0 : 75.041771, theta1 : -13.492491, theta2 : 8.540057, error1 : 86.720115 
 theta0 : 75.091349, theta1 : -13.491905, theta2 : 8.524321, error1 : 86.395820 
 theta0 : 75.140820, theta1 : -13.491320, theta2 : 8.508618, error1 : 86.072830 
 theta0 : 75.190184, theta1 : -13.490736, theta2 : 8.492950, error1 : 85.751139 
 theta0 : 75.239442, theta1 : -13.490154, theta2 : 8.477315, error1 : 85.430741 
 theta0 : 97.986390, theta1 : -13.221172, theta2 : 1.257259, error1 : 1.553781 
 theta0 : 97.986505, theta1 : -13.221170, theta2 : 1.257223, error1 : 1.553680 
 theta0 : 97.986620, theta1 : -13.221169, theta2 : 1.257186, error1 : 1.553579 
 theta0 : 97.986735, theta1 : -13.221167, theta2 : 1.257150, error1 : 1.553479 
 theta0 : 97.986849, theta1 : -13.221166, theta2 : 1.257113, error1 : 1.553379 
 theta0 : 97.986963, theta1 : -13.221165, theta2 : 1.257077, error1 : 1.553278 
Done: theta0 : 97.987078, theta1 : -13.221163, theta2 : 1.257041 
迭代次數: 3443 

可以看到最后收斂到穩(wěn)定的參數值。

注意:這里在選取alpha和epsilon時需要謹慎選擇,可能不適的值會導致最后無法收斂。

總結

以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作能帶來一定的幫助,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。

參考文檔:

相關文章

  • python2 與python3的print區(qū)別小結

    python2 與python3的print區(qū)別小結

    這篇文章主要介紹了python2 與python3的print區(qū)別小結,需要的朋友可以參考下
    2018-01-01
  • Python深度學習albumentations數據增強庫

    Python深度學習albumentations數據增強庫

    下面開始albumenations的正式介紹,在這里我強烈建議英語基礎還好的讀者去官方網站跟著教程一步步學習,而這里的內容主要是我自己的一個總結以及方便英語能力較弱的讀者學習
    2021-09-09
  • python實現TCPserver的使用示例

    python實現TCPserver的使用示例

    python實現TCPserver是一件簡單的事情,只要通過socket這個模塊就可以實現,本文就來介紹一下python實現TCPserver的使用示例,感興趣的可以了解一下
    2023-10-10
  • Python實現按中文排序的方法示例

    Python實現按中文排序的方法示例

    這篇文章主要介紹了Python實現按中文排序的方法,涉及Python基于locale模塊的中文編碼與排序相關操作技巧,需要的朋友可以參考下
    2018-04-04
  • 使用python播放音頻的示例代碼

    使用python播放音頻的示例代碼

    在Python中,我們可以使用多種庫來播放音頻文件,其中最常用的是pygame庫和playsound庫,本文給大家分享使用這些庫的示例,對python播放音頻示例代碼感興趣的朋友一起看看吧
    2024-02-02
  • win10+anaconda安裝yolov5的方法及問題解決方案

    win10+anaconda安裝yolov5的方法及問題解決方案

    這篇文章主要介紹了win10+anaconda安裝yolov5的方法及問題解決方案,本文給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2021-04-04
  • python nmap實現端口掃描器教程

    python nmap實現端口掃描器教程

    這篇文章主要為大家詳細介紹了python nmap實現端口掃描器教程,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2019-08-08
  • Python計算信息熵實例

    Python計算信息熵實例

    這篇文章主要介紹了Python計算信息熵實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2020-06-06
  • Python、Javascript中的閉包比較

    Python、Javascript中的閉包比較

    這篇文章主要介紹了Python、Javascript中的閉包比較,本文分別講解了Python和Javascript中的閉包,分對它們的不同做了一個簡單的比較,需要的朋友可以參考下
    2015-02-02
  • python字典dict中常用內置函數的使用

    python字典dict中常用內置函數的使用

    本文主要介紹了python字典dict中常用內置函數的使用,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-04-04

最新評論