python 非線性規(guī)劃方式(scipy.optimize.minimize)
一、背景:
現(xiàn)在項目上有一個用python 實現(xiàn)非線性規(guī)劃的需求。非線性規(guī)劃可以簡單分兩種,目標函數(shù)為凸函數(shù) or 非凸函數(shù)。
凸函數(shù)的 非線性規(guī)劃,比如fun=x^2+y^2+x*y,有很多常用的python庫來完成,網(wǎng)上也有很多資料,比如CVXPY
非凸函數(shù)的 非線性規(guī)劃(求極值),從處理方法來說,可以嘗試以下幾種:
1.純數(shù)學方法,求導求極值;
2.使用神經(jīng)網(wǎng)絡,深度學習來處理,可參考反向傳播算法中鏈式求導的過程;
3.尋找一些python庫來做,本文介紹scipy.optimize.minimize的使用方法
二、庫方法介紹
官方文檔:https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.minimize.html
來看下改方法的入?yún)?/p>
scipy.optimize.minimize(fun, x0, args=(), method=None, jac=None, hess=None, hessp=None, bounds=None, constraints=(), tol=None, callback=None, options=None)
解釋:
fun: 求最小值的目標函數(shù)
x0:變量的初始猜測值,如果有多個變量,需要給每個變量一個初始猜測值。minimize是局部最優(yōu)的解法,所以
args:常數(shù)值,后面demo會講解,fun中沒有數(shù)字,都以變量的形式表示,對于常數(shù)項,需要在這里給值
method:求極值的方法,官方文檔給了很多種。一般使用默認。每種方法我理解是計算誤差,反向傳播的方式不同而已,這塊有很大理論研究空間
constraints:約束條件,針對fun中為參數(shù)的部分進行約束限制
三、demo
1.計算 1/x+x 的最小值
# coding=utf-8 from scipy.optimize import minimize import numpy as np #demo 1 #計算 1/x+x 的最小值 def fun(args): a=args v=lambda x:a/x[0] +x[0] return v if __name__ == "__main__": args = (1) #a x0 = np.asarray((2)) # 初始猜測值 res = minimize(fun(args), x0, method='SLSQP') print(res.fun) print(res.success) print(res.x)
執(zhí)行結果:函數(shù)的最小值為2點多,可以看出minimize求的局部最優(yōu)
2.計算 (2+x1)/(1+x2) - 3*x1+4*x3 的最小值 x1,x2,x3的范圍都在0.1到0.9 之間
# coding=utf-8 from scipy.optimize import minimize import numpy as np # demo 2 #計算 (2+x1)/(1+x2) - 3*x1+4*x3 的最小值 x1,x2,x3的范圍都在0.1到0.9 之間 def fun(args): a,b,c,d=args v=lambda x: (a+x[0])/(b+x[1]) -c*x[0]+d*x[2] return v def con(args): # 約束條件 分為eq 和ineq #eq表示 函數(shù)結果等于0 ; ineq 表示 表達式大于等于0 x1min, x1max, x2min, x2max,x3min,x3max = args cons = ({'type': 'ineq', 'fun': lambda x: x[0] - x1min},\ {'type': 'ineq', 'fun': lambda x: -x[0] + x1max},\ {'type': 'ineq', 'fun': lambda x: x[1] - x2min},\ {'type': 'ineq', 'fun': lambda x: -x[1] + x2max},\ {'type': 'ineq', 'fun': lambda x: x[2] - x3min},\ {'type': 'ineq', 'fun': lambda x: -x[2] + x3max}) return cons if __name__ == "__main__": #定義常量值 args = (2,1,3,4) #a,b,c,d #設置參數(shù)范圍/約束條件 args1 = (0.1,0.9,0.1, 0.9,0.1,0.9) #x1min, x1max, x2min, x2max cons = con(args1) #設置初始猜測值 x0 = np.asarray((0.5,0.5,0.5)) res = minimize(fun(args), x0, method='SLSQP',constraints=cons) print(res.fun) print(res.success) print(res.x)
執(zhí)行結果:
對于這種簡單的函數(shù),可以看出局部最優(yōu)的求解和真實最優(yōu)解相差不大,對于復雜的函數(shù),x0的初始值設置,會很大程度影響最優(yōu)解的結果。
ADD:
全局最優(yōu)的函數(shù): scipy.optimize.basinhopping
有一個缺點是無法設置約束,求全局的最優(yōu)解的函數(shù)
https://docs.scipy.org/doc/scipy/reference/generated/scipy.optimize.basinhopping.html
以上這篇python 非線性規(guī)劃方式(scipy.optimize.minimize)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
用pandas劃分數(shù)據(jù)集實現(xiàn)訓練集和測試集
這篇文章主要介紹了用pandas劃分數(shù)據(jù)集實現(xiàn)訓練集和測試集,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2020-07-07對python中的乘法dot和對應分量相乘multiply詳解
今天小編就為大家分享一篇對python中的乘法dot和對應分量相乘multiply詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11pytorch 實現(xiàn)刪除tensor中的指定行列
今天小編就為大家分享一篇pytorch 實現(xiàn)刪除tensor中的指定行列,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01