亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Python實現隨機森林回歸與各自變量重要性分析與排序

 更新時間:2023年02月19日 10:10:24   作者:瘋狂學習GIS  
這篇文章主要為大家詳細介紹了在Python環(huán)境中,實現隨機森林(Random Forest,RF)回歸與各自變量重要性分析與排序的過程,感興趣的小伙伴可以了解一下

本文介紹在Python環(huán)境中,實現隨機森林(Random Forest,RF)回歸與各自變量重要性分析與排序的過程。

其中,關于基于MATLAB實現同樣過程的代碼與實戰(zhàn),大家可以點擊查看MATLAB實現隨機森林(RF)回歸與自變量影響程度分析這篇文章。

本文分為兩部分,第一部分為代碼的分段講解,第二部分為完整代碼。

1 代碼分段講解

1.1 模塊與數據準備

首先,導入所需要的模塊。在這里,需要pydotgraphviz這兩個相對不太常用的模塊,即使我用了Anaconda,也需要單獨下載、安裝。具體下載與安裝,如果同樣是在用Anaconda,大家就參考Python pydot與graphviz庫在Anaconda環(huán)境的配置即可。

import pydot
import numpy as np
import pandas as pd
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn import metrics
from openpyxl import load_workbook
from sklearn.tree import export_graphviz
from sklearn.ensemble import RandomForestRegressor

接下來,我們將代碼接下來需要用的主要變量加以定義。這一部分大家先不用過于在意,瀏覽一下繼續(xù)向下看即可;待到對應的變量需要運用時我們自然會理解其具體含義。

train_data_path='G:/CropYield/03_DL/00_Data/AllDataAll_Train.csv'
test_data_path='G:/CropYield/03_DL/00_Data/AllDataAll_Test.csv'
write_excel_path='G:/CropYield/03_DL/05_NewML/ParameterResult_ML.xlsx'
tree_graph_dot_path='G:/CropYield/03_DL/05_NewML/tree.dot'
tree_graph_png_path='G:/CropYield/03_DL/05_NewML/tree.png'

random_seed=44
random_forest_seed=np.random.randint(low=1,high=230)

接下來,我們需要導入輸入數據。

在這里需要注意,本文對以下兩個數據處理的流程并沒有詳細涉及與講解(因為在寫本文時,我已經做過了同一批數據的深度學習回歸,本文就直接用了當時做深度學習時處理好的輸入數據,因此以下兩個數據處理的基本過程就沒有再涉及啦),大家直接查看下方所列出的其它幾篇博客即可。

  • 初始數據劃分訓練集與測試集
  • 類別變量的獨熱編碼(One-hot Encoding)

針對上述兩個數據處理過程,首先,數據訓練集與測試集的劃分在機器學習、深度學習中是不可或缺的作用,這一部分大家可以查看Python TensorFlow深度學習回歸代碼:DNNRegressor2.4部分,或Python TensorFlow深度神經網絡回歸:keras.Sequential2.3部分;其次,關于類別變量的獨熱編碼,對于隨機森林等傳統(tǒng)機器學習方法而言可以說同樣是非常重要的,這一部分大家可以查看Python實現類別變量的獨熱編碼(One-hot Encoding)。

在本文中,如前所述,我們直接將已經存在.csv中,已經劃分好訓練集與測試集且已經對類別變量做好了獨熱編碼之后的數據加以導入。在這里,我所導入的數據第一行是表頭,即每一列的名稱。關于.csv數據導入的代碼詳解,大家可以查看多變量兩兩相互關系聯(lián)合分布圖的Python繪制數據導入部分。

# Data import

'''
column_name=['EVI0610','EVI0626','EVI0712','EVI0728','EVI0813','EVI0829','EVI0914','EVI0930','EVI1016',
             'Lrad06','Lrad07','Lrad08','Lrad09','Lrad10',
             'Prec06','Prec07','Prec08','Prec09','Prec10',
             'Pres06','Pres07','Pres08','Pres09','Pres10',
             'SIF161','SIF177','SIF193','SIF209','SIF225','SIF241','SIF257','SIF273','SIF289',
             'Shum06','Shum07','Shum08','Shum09','Shum10',
             'Srad06','Srad07','Srad08','Srad09','Srad10',
             'Temp06','Temp07','Temp08','Temp09','Temp10',
             'Wind06','Wind07','Wind08','Wind09','Wind10',
             'Yield']
'''
train_data=pd.read_csv(train_data_path,header=0)
test_data=pd.read_csv(test_data_path,header=0)

1.2 特征與標簽分離

特征與標簽,換句話說其實就是自變量與因變量。我們要將訓練集與測試集中對應的特征與標簽分別分離開來。

# Separate independent and dependent variables

train_Y=np.array(train_data['Yield'])
train_X=train_data.drop(['ID','Yield'],axis=1)
train_X_column_name=list(train_X.columns)
train_X=np.array(train_X)

test_Y=np.array(test_data['Yield'])
test_X=test_data.drop(['ID','Yield'],axis=1)
test_X=np.array(test_X)

可以看到,直接借助drop就可以將標簽'Yield'從原始的數據中剔除(同時還剔除了一個'ID',這個是初始數據的樣本編號,后面就沒什么用了,因此隨著標簽一起剔除)。同時在這里,還借助了train_X_column_name這一變量,將每一個特征值列所對應的標題(也就是特征的名稱)加以保存,供后續(xù)使用。

1.3 RF模型構建、訓練與預測

接下來,我們就需要對隨機森林模型加以建立,并訓練模型,最后再利用測試集加以預測。在這里需要注意,關于隨機森林的幾個重要超參數(例如下方的n_estimators)都是需要不斷嘗試找到最優(yōu)的。關于這些超參數的尋優(yōu),在MATLAB中的實現方法大家可以查看MATLAB實現隨機森林(RF)回歸與自變量影響程度分析1.1部分;而在Python中的實現方法,我們將在下一篇博客中介紹。

# Build RF regression model

random_forest_model=RandomForestRegressor(n_estimators=200,random_state=random_forest_seed)
random_forest_model.fit(train_X,train_Y)

# Predict test set data

random_forest_predict=random_forest_model.predict(test_X)
random_forest_error=random_forest_predict-test_Y

其中,利用RandomForestRegressor進行模型的構建,n_estimators就是樹的個數,random_state是每一個樹利用Bagging策略中的Bootstrap進行抽樣(即有放回的袋外隨機抽樣)時,隨機選取樣本的隨機數種子;fit進行模型的訓練,predict進行模型的預測,最后一句就是計算預測的誤差。

1.4 預測圖像繪制、精度衡量指標計算與保存

首先,進行預測圖像繪制,其中包括預測結果的擬合圖與誤差分布直方圖。關于這一部分代碼的解釋,大家可以查看Python TensorFlow深度學習回歸代碼:DNNRegressor2.9部分。

# Draw test plot

plt.figure(1)
plt.clf()
ax=plt.axes(aspect='equal')
plt.scatter(test_Y,random_forest_predict)
plt.xlabel('True Values')
plt.ylabel('Predictions')
Lims=[0,10000]
plt.xlim(Lims)
plt.ylim(Lims)
plt.plot(Lims,Lims)
plt.grid(False)
    
plt.figure(2)
plt.clf()
plt.hist(random_forest_error,bins=30)
plt.xlabel('Prediction Error')
plt.ylabel('Count')
plt.grid(False)

以上兩幅圖的繪圖結果如下所示。

接下來,進行精度衡量指標的計算與保存。在這里,我們用皮爾遜相關系數決定系數RMSE作為精度的衡量指標,并將每一次模型運行的精度衡量指標結果保存在一個Excel文件中。這一部分大家同樣查看Python TensorFlow深度學習回歸代碼:DNNRegressor2.9部分即可。

# Verify the accuracy

random_forest_pearson_r=stats.pearsonr(test_Y,random_forest_predict)
random_forest_R2=metrics.r2_score(test_Y,random_forest_predict)
random_forest_RMSE=metrics.mean_squared_error(test_Y,random_forest_predict)**0.5
print('Pearson correlation coefficient is {0}, and RMSE is {1}.'.format(random_forest_pearson_r[0],
                                                                        random_forest_RMSE))

# Save key parameters

excel_file=load_workbook(write_excel_path)
excel_all_sheet=excel_file.sheetnames
excel_write_sheet=excel_file[excel_all_sheet[0]]
excel_write_sheet=excel_file.active
max_row=excel_write_sheet.max_row
excel_write_content=[random_forest_pearson_r[0],random_forest_R2,random_forest_RMSE,random_seed,random_forest_seed]
for i in range(len(excel_write_content)):
        exec("excel_write_sheet.cell(max_row+1,i+1).value=excel_write_content[i]")
excel_file.save(write_excel_path)

1.5 決策樹可視化

這一部分我們借助DOT這一圖像描述語言,進行隨機森林算法中決策樹的繪制。

# Draw decision tree visualizing plot

random_forest_tree=random_forest_model.estimators_[5]
export_graphviz(random_forest_tree,out_file=tree_graph_dot_path,
                feature_names=train_X_column_name,rounded=True,precision=1)
(random_forest_graph,)=pydot.graph_from_dot_file(tree_graph_dot_path)
random_forest_graph.write_png(tree_graph_png_path)

其中,estimators_[5]是指整個隨機森林算法中的第6棵樹(下標是從0開始的),換句話說我們就是從很多的樹(具體樹的個數就是前面提到的超參數n_estimators)中抽取了找一個來畫圖,做一個示范。如下圖所示。

可以看到,單單是這一棵樹就已經非常非常龐大了。我們將上圖其中最頂端(也就是最上方的節(jié)點——根節(jié)點)部分放大,就可以看見每一個節(jié)點對應的信息。如下圖

在這里提一句,上圖根節(jié)點中有一個samples=151,但是我的樣本總數是315個,為什么這棵樹的樣本個數不是全部的樣本個數呢?

其實這就是隨機森林的內涵所在:隨機森林的每一棵樹的輸入數據(也就是該棵樹的根節(jié)點中的數據),都是隨機選取的(也就是上面我們說的利用Bagging策略中的Bootstrap進行隨機抽樣),最后再將每一棵樹的結果聚合起來(聚合這個過程就是Aggregation,我們常說的Bagging其實就是BootstrapAggregation的合稱),形成隨機森林算法最終的結果。

1.6 變量重要性分析

在這里,我們進行變量重要性的分析,并以圖的形式進行可視化。

# Calculate the importance of variables

random_forest_importance=list(random_forest_model.feature_importances_)
random_forest_feature_importance=[(feature,round(importance,8)) 
                                  for feature, importance in zip(train_X_column_name,random_forest_importance)]
random_forest_feature_importance=sorted(random_forest_feature_importance,key=lambda x:x[1],reverse=True)
plt.figure(3)
plt.clf()
importance_plot_x_values=list(range(len(random_forest_importance)))
plt.bar(importance_plot_x_values,random_forest_importance,orientation='vertical')
plt.xticks(importance_plot_x_values,train_X_column_name,rotation='vertical')
plt.xlabel('Variable')
plt.ylabel('Importance')
plt.title('Variable Importances')

得到圖像如下所示。這里是由于我的特征數量(自變量數量)過多,大概有150多個,導致橫坐標的標簽(也就是自變量的名稱)都重疊了;大家一般的自變量個數都不會太多,就不會有問題~

以上就是全部的代碼分段介紹~

2 完整代碼

# -*- coding: utf-8 -*-
"""
Created on Sun Mar 21 22:05:37 2021

@author: fkxxgis
"""

import pydot
import numpy as np
import pandas as pd
import scipy.stats as stats
import matplotlib.pyplot as plt
from sklearn import metrics
from openpyxl import load_workbook
from sklearn.tree import export_graphviz
from sklearn.ensemble import RandomForestRegressor


# Attention! Data Partition
# Attention! One-Hot Encoding

train_data_path='G:/CropYield/03_DL/00_Data/AllDataAll_Train.csv'
test_data_path='G:/CropYield/03_DL/00_Data/AllDataAll_Test.csv'
write_excel_path='G:/CropYield/03_DL/05_NewML/ParameterResult_ML.xlsx'
tree_graph_dot_path='G:/CropYield/03_DL/05_NewML/tree.dot'
tree_graph_png_path='G:/CropYield/03_DL/05_NewML/tree.png'

random_seed=44
random_forest_seed=np.random.randint(low=1,high=230)

# Data import

'''
column_name=['EVI0610','EVI0626','EVI0712','EVI0728','EVI0813','EVI0829','EVI0914','EVI0930','EVI1016',
             'Lrad06','Lrad07','Lrad08','Lrad09','Lrad10',
             'Prec06','Prec07','Prec08','Prec09','Prec10',
             'Pres06','Pres07','Pres08','Pres09','Pres10',
             'SIF161','SIF177','SIF193','SIF209','SIF225','SIF241','SIF257','SIF273','SIF289',
             'Shum06','Shum07','Shum08','Shum09','Shum10',
             'Srad06','Srad07','Srad08','Srad09','Srad10',
             'Temp06','Temp07','Temp08','Temp09','Temp10',
             'Wind06','Wind07','Wind08','Wind09','Wind10',
             'Yield']
'''
train_data=pd.read_csv(train_data_path,header=0)
test_data=pd.read_csv(test_data_path,header=0)

# Separate independent and dependent variables

train_Y=np.array(train_data['Yield'])
train_X=train_data.drop(['ID','Yield'],axis=1)
train_X_column_name=list(train_X.columns)
train_X=np.array(train_X)

test_Y=np.array(test_data['Yield'])
test_X=test_data.drop(['ID','Yield'],axis=1)
test_X=np.array(test_X)

# Build RF regression model

random_forest_model=RandomForestRegressor(n_estimators=200,random_state=random_forest_seed)
random_forest_model.fit(train_X,train_Y)

# Predict test set data

random_forest_predict=random_forest_model.predict(test_X)
random_forest_error=random_forest_predict-test_Y

# Draw test plot

plt.figure(1)
plt.clf()
ax=plt.axes(aspect='equal')
plt.scatter(test_Y,random_forest_predict)
plt.xlabel('True Values')
plt.ylabel('Predictions')
Lims=[0,10000]
plt.xlim(Lims)
plt.ylim(Lims)
plt.plot(Lims,Lims)
plt.grid(False)
    
plt.figure(2)
plt.clf()
plt.hist(random_forest_error,bins=30)
plt.xlabel('Prediction Error')
plt.ylabel('Count')
plt.grid(False)

# Verify the accuracy

random_forest_pearson_r=stats.pearsonr(test_Y,random_forest_predict)
random_forest_R2=metrics.r2_score(test_Y,random_forest_predict)
random_forest_RMSE=metrics.mean_squared_error(test_Y,random_forest_predict)**0.5
print('Pearson correlation coefficient is {0}, and RMSE is {1}.'.format(random_forest_pearson_r[0],
                                                                        random_forest_RMSE))

# Save key parameters

excel_file=load_workbook(write_excel_path)
excel_all_sheet=excel_file.sheetnames
excel_write_sheet=excel_file[excel_all_sheet[0]]
excel_write_sheet=excel_file.active
max_row=excel_write_sheet.max_row
excel_write_content=[random_forest_pearson_r[0],random_forest_R2,random_forest_RMSE,random_seed,random_forest_seed]
for i in range(len(excel_write_content)):
        exec("excel_write_sheet.cell(max_row+1,i+1).value=excel_write_content[i]")
excel_file.save(write_excel_path)

# Draw decision tree visualizing plot

random_forest_tree=random_forest_model.estimators_[5]
export_graphviz(random_forest_tree,out_file=tree_graph_dot_path,
                feature_names=train_X_column_name,rounded=True,precision=1)
(random_forest_graph,)=pydot.graph_from_dot_file(tree_graph_dot_path)
random_forest_graph.write_png(tree_graph_png_path)

# Calculate the importance of variables

random_forest_importance=list(random_forest_model.feature_importances_)
random_forest_feature_importance=[(feature,round(importance,8)) 
                                  for feature, importance in zip(train_X_column_name,random_forest_importance)]
random_forest_feature_importance=sorted(random_forest_feature_importance,key=lambda x:x[1],reverse=True)
plt.figure(3)
plt.clf()
importance_plot_x_values=list(range(len(random_forest_importance)))
plt.bar(importance_plot_x_values,random_forest_importance,orientation='vertical')
plt.xticks(importance_plot_x_values,train_X_column_name,rotation='vertical')
plt.xlabel('Variable')
plt.ylabel('Importance')
plt.title('Variable Importances')

以上就是Python實現隨機森林回歸與各自變量重要性分析與排序的詳細內容,更多關于Python隨機森林的資料請關注腳本之家其它相關文章!

相關文章

  • pytest自動化測試數據驅動yaml/excel/csv/json

    pytest自動化測試數據驅動yaml/excel/csv/json

    這篇文章主要為大家介紹了pytest自動化測試數據驅動yaml/excel/csv/json的示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪
    2022-06-06
  • 使用IDLE的Python shell窗口實例詳解

    使用IDLE的Python shell窗口實例詳解

    在本篇文章里小編給各位整理的是關于使用IDLE的Python shell窗口實例詳解內容,有興趣的朋友們學習下。
    2019-11-11
  • Python結合百度語音識別實現實時翻譯軟件的實現

    Python結合百度語音識別實現實時翻譯軟件的實現

    這篇文章主要介紹了Python結合百度語音識別實現實時翻譯軟件的實現,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2021-01-01
  • 關于Python作用域自學總結

    關于Python作用域自學總結

    在本文里我們給大家整理了關于python自學作用域的相關知識點以及實例代碼,需要的朋友們跟著學習下。
    2019-06-06
  • 基于PyQt5完成的PDF拆分功能

    基于PyQt5完成的PDF拆分功能

    這篇文章主要介紹了基于PyQt5完成的PDF拆分功能,本文介紹的pdf拆分功能還有一些待完善地方,例如可增加預覽功能,實現每頁預覽,以及如何實現多條件拆分,需要的朋友可以參考下
    2022-06-06
  • django輸出html內容的實例

    django輸出html內容的實例

    今天小編就為大家分享一篇django輸出html內容的實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-05-05
  • Flask?使用類組織配置詳情

    Flask?使用類組織配置詳情

    這篇文章主要介紹了Flask使用類組織配置,在實際的項目中,我們一般都會建立三個環(huán)境:開發(fā)、測試和生產環(huán)境,這三種環(huán)境會使用不同的配置組合,為了能方便地切換配置,我們可以為不同的環(huán)境創(chuàng)建不同的配置文件,下面來看詳細內容,需要的朋友可以參考一下
    2021-11-11
  • python 監(jiān)聽salt job狀態(tài),并任務數據推送到redis中的方法

    python 監(jiān)聽salt job狀態(tài),并任務數據推送到redis中的方法

    今天小編就為大家分享一篇python 監(jiān)聽salt job狀態(tài),并任務數據推送到redis中的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-01-01
  • Python畫圖高斯分布的示例

    Python畫圖高斯分布的示例

    今天小編就為大家分享一篇Python畫圖高斯分布的示例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-07-07
  • python文件操作的基礎詳細講解(write、read、readlines、readline)

    python文件操作的基礎詳細講解(write、read、readlines、readline)

    使用python來讀寫文件是非常簡單的操作,下面這篇文章主要給大家介紹了關于python文件操作的基礎詳細資料,包括write、read、readlines、readline等相關操作,文中通過示例代碼介紹的非常詳細,需要的朋友可以參考下
    2022-04-04

最新評論