Python機(jī)器學(xué)習(xí)應(yīng)用之基于LightGBM的分類預(yù)測篇解讀
一、Introduction
LightGBM是擴(kuò)展機(jī)器學(xué)習(xí)系統(tǒng)。是一款基于GBDT(梯度提升決策樹)算法的分布梯度提升框架。其設(shè)計思路主要集中在減少數(shù)據(jù)對內(nèi)存與計算性能的使用上,以及減少多機(jī)器并行計算時的通訊代價
1 LightGBM的優(yōu)點
- 簡單易用。提供了主流的Python\C++\R語言接口,用戶可以輕松使用LightGBM建模并獲得相當(dāng)不錯的效果。
- 高效可擴(kuò)展。在處理大規(guī)模數(shù)據(jù)集時高效迅速、高準(zhǔn)確度,對內(nèi)存等硬件資源要求不高。
- 魯棒性強(qiáng)。相較于深度學(xué)習(xí)模型不需要精細(xì)調(diào)參便能取得近似的效果。
- LightGBM直接支持缺失值與類別特征,無需對數(shù)據(jù)額外進(jìn)行特殊處理
2 LightGBM的缺點
- 相對于深度學(xué)習(xí)模型無法對時空位置建模,不能很好地捕獲圖像、語音、文本等高維數(shù)據(jù)。
- 在擁有海量訓(xùn)練數(shù)據(jù),并能找到合適的深度學(xué)習(xí)模型時,深度學(xué)習(xí)的精度可以遙遙領(lǐng)先LightGBM。
二、實現(xiàn)過程
1 數(shù)據(jù)集介紹
英雄聯(lián)盟數(shù)據(jù)集 提取碼:1234
本數(shù)據(jù)用于LightGBM分類實戰(zhàn)。該數(shù)據(jù)集共有9881場英雄聯(lián)盟韓服鉆石段位以上的排位賽數(shù)據(jù),數(shù)據(jù)提供了在十分鐘時的游戲狀態(tài),包括擊殺數(shù),金幣數(shù)量,經(jīng)驗值,等級等信息。
2 Coding
#導(dǎo)入基本庫 import numpy as np import pandas as pd ## 繪圖函數(shù)庫 import matplotlib.pyplot as plt import seaborn as sns #%% 數(shù)據(jù)讀入:利用Pandas自帶的read_csv函數(shù)讀取并轉(zhuǎn)化為DataFrame格式 df = pd.read_csv('D:\Python\ML\data\high_diamond_ranked_10min.csv') y = df.blueWins #%%查看樣本數(shù)據(jù) #print(y.value_counts()) #標(biāo)注特征列 drop_cols=['gameId','blueWins'] x=df.drop(drop_cols,axis=1) #對數(shù)字特征進(jìn)行統(tǒng)計描述 x_des=x.describe()
#%%去除冗余數(shù)據(jù),因為紅藍(lán)為競爭關(guān)系,只需知道一方的情況,對方相反因此去除紅方的數(shù)據(jù)信息 drop_cols = ['redFirstBlood','redKills','redDeaths' ,'redGoldDiff','redExperienceDiff', 'blueCSPerMin', 'blueGoldPerMin','redCSPerMin','redGoldPerMin'] x.drop(drop_cols, axis=1, inplace=True) #%%可視化描述。為了有一個好的呈現(xiàn)方式,分兩張小提琴圖展示前九個特征和中間九個特征,后面的相同不再贅述 data = x data_std = (data - data.mean()) / data.std() data = pd.concat([y, data_std.iloc[:, 0:9]], axis=1)#將標(biāo)簽與前九列拼接此時的到的data是(9879*10)的metric data = pd.melt(data, id_vars='blueWins', var_name='Features', value_name='Values')#將上面的數(shù)據(jù)melt成(88911*3)的metric fig, ax = plt.subplots(1,2,figsize=(15,8)) # 繪制小提琴圖 sns.violinplot(x='Features', y='Values', hue='blueWins', data=data, split=True, inner='quart', ax=ax[0], palette='Blues') fig.autofmt_xdate(rotation=45)#改變x軸坐標(biāo)的現(xiàn)實方法,可以斜著表示(傾斜45度),不用平著擠成一堆 data = x data_std = (data - data.mean()) / data.std() data = pd.concat([y, data_std.iloc[:, 9:18]], axis=1) data = pd.melt(data, id_vars='blueWins', var_name='Features', value_name='Values') # 繪制小提琴圖 sns.violinplot(x='Features', y='Values', hue='blueWins', data=data, split=True, inner='quart', ax=ax[1], palette='Blues') fig.autofmt_xdate(rotation=45) plt.show()
#%%畫出各個特征之間的相關(guān)性熱力圖 fig,ax=plt.subplots(figsize=(15,18)) sns.heatmap(round(x.corr(),2),cmap='Blues',annot=True) fig.autofmt_xdate(rotation=45) plt.show()
#%%根據(jù)上述特征圖,剔除相關(guān)性較強(qiáng)的冗余特征(redAvgLevel,blueAvgLevel) # 去除冗余特征 drop_cols = ['redAvgLevel','blueAvgLevel'] x.drop(drop_cols, axis=1, inplace=True) sns.set(style='whitegrid', palette='muted') # 構(gòu)造兩個新特征 x['wardsPlacedDiff'] = x['blueWardsPlaced'] - x['redWardsPlaced'] x['wardsDestroyedDiff'] = x['blueWardsDestroyed'] - x['redWardsDestroyed'] data = x[['blueWardsPlaced','blueWardsDestroyed','wardsPlacedDiff','wardsDestroyedDiff']].sample(1000) data_std = (data - data.mean()) / data.std() data = pd.concat([y, data_std], axis=1) data = pd.melt(data, id_vars='blueWins', var_name='Features', value_name='Values') plt.figure(figsize=(15,8)) sns.swarmplot(x='Features', y='Values', hue='blueWins', data=data) plt.show()
#%%由上圖插眼數(shù)量的離散圖,可以發(fā)現(xiàn)插眼數(shù)量與游戲勝負(fù)之間的顯著規(guī)律,游戲前十分鐘插眼與否對最終的勝負(fù)影響不大,故將這些特征去除 ## 去除和眼位相關(guān)的特征 drop_cols = ['blueWardsPlaced','blueWardsDestroyed','wardsPlacedDiff', 'wardsDestroyedDiff','redWardsPlaced','redWardsDestroyed'] x.drop(drop_cols, axis=1, inplace=True) #%%擊殺、死亡與助攻數(shù)的數(shù)據(jù)分布差別不大,但是擊殺減去死亡、助攻減去死亡的分布與緣分不差別較大,構(gòu)造兩個新的特征 x['killsDiff'] = x['blueKills'] - x['blueDeaths'] x['assistsDiff'] = x['blueAssists'] - x['redAssists'] x[['blueKills','blueDeaths','blueAssists','killsDiff','assistsDiff','redAssists']].hist(figsize=(15,8), bins=20) plt.show()
#%% data = x[['blueKills','blueDeaths','blueAssists','killsDiff','assistsDiff','redAssists']].sample(1000) data_std = (data - data.mean()) / data.std() data = pd.concat([y, data_std], axis=1) data = pd.melt(data, id_vars='blueWins', var_name='Features', value_name='Values') plt.figure(figsize=(10,6)) sns.swarmplot(x='Features', y='Values', hue='blueWins', data=data) plt.xticks(rotation=45) plt.show()
#%% data = pd.concat([y, x], axis=1).sample(500) sns.pairplot(data, vars=['blueKills','blueDeaths','blueAssists','killsDiff','assistsDiff','redAssists'], hue='blueWins') plt.show()
#%%一些特征兩兩組合后對于數(shù)據(jù)的劃分有提升 x['dragonsDiff'] = x['blueDragons'] - x['redDragons']#拿到龍 x['heraldsDiff'] = x['blueHeralds'] - x['redHeralds']#拿到峽谷先鋒 x['eliteDiff'] = x['blueEliteMonsters'] - x['redEliteMonsters']#擊殺大型野怪 data = pd.concat([y, x], axis=1) eliteGroup = data.groupby(['eliteDiff'])['blueWins'].mean() dragonGroup = data.groupby(['dragonsDiff'])['blueWins'].mean() heraldGroup = data.groupby(['heraldsDiff'])['blueWins'].mean() fig, ax = plt.subplots(1,3, figsize=(15,4)) eliteGroup.plot(kind='bar', ax=ax[0]) dragonGroup.plot(kind='bar', ax=ax[1]) heraldGroup.plot(kind='bar', ax=ax[2]) print(eliteGroup) print(dragonGroup) print(heraldGroup) plt.show()
#%%推塔數(shù)量與游戲勝負(fù) x['towerDiff'] = x['blueTowersDestroyed'] - x['redTowersDestroyed'] data = pd.concat([y, x], axis=1) towerGroup = data.groupby(['towerDiff'])['blueWins'] print(towerGroup.count()) print(towerGroup.mean()) fig, ax = plt.subplots(1,2,figsize=(15,5)) towerGroup.mean().plot(kind='line', ax=ax[0]) ax[0].set_title('Proportion of Blue Wins') ax[0].set_ylabel('Proportion') towerGroup.count().plot(kind='line', ax=ax[1]) ax[1].set_title('Count of Towers Destroyed') ax[1].set_ylabel('Count')
#%%利用LightGBM進(jìn)行訓(xùn)練和預(yù)測 ## 為了正確評估模型性能,將數(shù)據(jù)劃分為訓(xùn)練集和測試集,并在訓(xùn)練集上訓(xùn)練模型,在測試集上驗證模型性能。 from sklearn.model_selection import train_test_split ## 選擇其類別為0和1的樣本 (不包括類別為2的樣本) data_target_part = y data_features_part = x ## 測試集大小為20%, 80%/20%分 x_train, x_test, y_train, y_test = train_test_split(data_features_part, data_target_part, test_size = 0.2, random_state = 2020) #%%## 導(dǎo)入LightGBM模型 from lightgbm.sklearn import LGBMClassifier ## 定義 LightGBM 模型 clf = LGBMClassifier() # 在訓(xùn)練集上訓(xùn)練LightGBM模型 clf.fit(x_train, y_train) #%%在訓(xùn)練集和測試集上分別利用訓(xùn)練好的模型進(jìn)行預(yù)測 train_predict = clf.predict(x_train) test_predict = clf.predict(x_test) from sklearn import metrics ## 利用accuracy(準(zhǔn)確度)【預(yù)測正確的樣本數(shù)目占總預(yù)測樣本數(shù)目的比例】評估模型效果 print('The accuracy of the LightGBM is:',metrics.accuracy_score(y_train,train_predict)) print('The accuracy of the LightGBM is:',metrics.accuracy_score(y_test,test_predict)) ## 查看混淆矩陣 (預(yù)測值和真實值的各類情況統(tǒng)計矩陣) confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test) print('The confusion matrix result:\n',confusion_matrix_result) # 利用熱力圖對于結(jié)果進(jìn)行可視化 plt.figure(figsize=(8, 6)) sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues') plt.xlabel('Predicted labels') plt.ylabel('True labels') plt.show()
#%%利用lightgbm進(jìn)行特征選擇,同樣可以用屬性feature_importances_查看特征的重要度 sns.barplot(y=data_features_part.columns, x=clf.feature_importances_)
#%%除feature_importances_外,還可以使用LightGBM中的其他屬性進(jìn)行評估(gain,split) from sklearn.metrics import accuracy_score from lightgbm import plot_importance def estimate(model,data): ax1=plot_importance(model,importance_type="gain") ax1.set_title('gain') ax2=plot_importance(model, importance_type="split") ax2.set_title('split') plt.show() def classes(data,label,test): model=LGBMClassifier() model.fit(data,label) ans=model.predict(test) estimate(model, data) return ans ans=classes(x_train,y_train,x_test) pre=accuracy_score(y_test, ans) print('acc=',accuracy_score(y_test,ans))
通過調(diào)整參數(shù)獲得更好的效果: LightGBM中重要的參數(shù)
- learning_rate: 有時也叫作eta,系統(tǒng)默認(rèn)值為0.3。每一步迭代的步長,很重要。太大了運(yùn)行準(zhǔn)確率不高,太小了運(yùn)行速度慢。
- num_leaves:系統(tǒng)默認(rèn)為32。這個參數(shù)控制每棵樹中最大葉子節(jié)點數(shù)量。
- feature_fraction:系統(tǒng)默認(rèn)值為1。我們一般設(shè)置成0.8左右。用來控制每棵隨機(jī)采樣的列數(shù)的占比(每一列是一個特征)。
- max_depth: 系統(tǒng)默認(rèn)值為6,我們常用3-10之間的數(shù)字。這個值為樹的最大深度。這個值是用來控制過擬合的。max_depth越大,模型學(xué)習(xí)的更加具體。
#%%調(diào)整參數(shù),獲得更好的效果 ## 從sklearn庫中導(dǎo)入網(wǎng)格調(diào)參函數(shù) from sklearn.model_selection import GridSearchCV ## 定義參數(shù)取值范圍 learning_rate = [0.1, 0.3, 0.6] feature_fraction = [0.5, 0.8, 1] num_leaves = [16, 32, 64] max_depth = [-1,3,5,8] parameters = { 'learning_rate': learning_rate, 'feature_fraction':feature_fraction, 'num_leaves': num_leaves, 'max_depth': max_depth} model = LGBMClassifier(n_estimators = 50) ## 進(jìn)行網(wǎng)格搜索 clf = GridSearchCV(model, parameters, cv=3, scoring='accuracy',verbose=3, n_jobs=-1) clf = clf.fit(x_train, y_train) #%%查看最好的參數(shù)值分別是多少 print(clf.best_params_)
#%%查看最好的參數(shù)值分別是多少 print(clf.best_params_) #%% 在訓(xùn)練集和測試集上分布利用最好的模型參數(shù)進(jìn)行預(yù)測 ## 定義帶參數(shù)的 LightGBM模型 clf = LGBMClassifier(feature_fraction = 1, learning_rate = 0.1, max_depth= 3, num_leaves = 16) # 在訓(xùn)練集上訓(xùn)練LightGBM模型 clf.fit(x_train, y_train) train_predict = clf.predict(x_train) test_predict = clf.predict(x_test) ## 利用accuracy(準(zhǔn)確度)【預(yù)測正確的樣本數(shù)目占總預(yù)測樣本數(shù)目的比例】評估模型效果 print('The accuracy of the LightGBM is:',metrics.accuracy_score(y_train,train_predict)) print('The accuracy of the LightGBM is:',metrics.accuracy_score(y_test,test_predict)) ## 查看混淆矩陣 (預(yù)測值和真實值的各類情況統(tǒng)計矩陣) confusion_matrix_result = metrics.confusion_matrix(test_predict,y_test) print('The confusion matrix result:\n',confusion_matrix_result) # 利用熱力圖對于結(jié)果進(jìn)行可視化 plt.figure(figsize=(8, 6)) sns.heatmap(confusion_matrix_result, annot=True, cmap='Blues') plt.xlabel('Predicted labels') plt.ylabel('True labels') plt.show()
三、Keys
LightGBM的重要參數(shù)
基本參數(shù)調(diào)整
- num_leaves參數(shù) 這是控制樹模型復(fù)雜度的主要參數(shù),一般的我們會使num_leaves小于(2的max_depth次方),以防止過擬合。由于LightGBM是leaf-wise建樹與XGBoost的depth-wise建樹方法不同,num_leaves比depth有更大的作用。
- min_data_in_leaf 這是處理過擬合問題中一個非常重要的參數(shù). 它的值取決于訓(xùn)練數(shù)據(jù)的樣本個樹和 num_leaves參數(shù). 將其設(shè)置的較大可以避免生成一個過深的樹, 但有可能導(dǎo)致欠擬合. 實際應(yīng)用中, 對于大數(shù)據(jù)集, 設(shè)置其為幾百或幾千就足夠了.
- max_depth 樹的深度,depth 的概念在 leaf-wise 樹中并沒有多大作用, 因為并不存在一個從 leaves 到 depth 的合理映射
針對訓(xùn)練速度的參數(shù)調(diào)整
- 通過設(shè)置 bagging_fraction 和 bagging_freq 參數(shù)來使用 bagging 方法。
- 通過設(shè)置 feature_fraction 參數(shù)來使用特征的子抽樣。
- 選擇較小的 max_bin 參數(shù)。使用 save_binary 在未來的學(xué)習(xí)過程對數(shù)據(jù)加載進(jìn)行加速。
針對準(zhǔn)確率的參數(shù)調(diào)整
- 使用較大的 max_bin (學(xué)習(xí)速度可能變慢)
- 使用較小的 learning_rate 和較大的 num_iterations
- 使用較大的 num_leaves (可能導(dǎo)致過擬合)
- 使用更大的訓(xùn)練數(shù)據(jù)
- 嘗試 dart 模式
針對過擬合的參數(shù)調(diào)整
- 使用較小的 max_bin
- 使用較小的 num_leaves
- 使用 min_data_in_leaf 和 min_sum_hessian_in_leaf
- 通過設(shè)置 bagging_fraction 和 bagging_freq 來使用 bagging
- 通過設(shè)置 feature_fraction 來使用特征子抽樣
- 使用更大的訓(xùn)練數(shù)據(jù)
- 使用 lambda_l1, lambda_l2 和 min_gain_to_split 來使用正則
- 嘗試 max_depth 來避免生成過深的樹
最近越發(fā)覺得良好的coding habits的重要性!debug才是yyds,從剛學(xué)C語言的時候就被老師教育過,當(dāng)時嘗到了debug的甜頭,到后來大部分寫完即使沒有bug的代碼還是會debug一遍,現(xiàn)在依然是,希望大家也都養(yǎng)成debug的習(xí)慣,當(dāng)然還有就是寫注釋,annotation是自己當(dāng)時的思想,不寫后期自己返回來看很大程度時間久了都不知道每個步驟的用意。 886~~~
到此這篇關(guān)于Python機(jī)器學(xué)習(xí)應(yīng)用之基于LightGBM的分類預(yù)測篇解讀的文章就介紹到這了,更多相關(guān)Python LightGBM分類預(yù)測內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Python機(jī)器學(xué)習(xí)應(yīng)用之基于線性判別模型的分類篇詳解
- Python機(jī)器學(xué)習(xí)應(yīng)用之基于BP神經(jīng)網(wǎng)絡(luò)的預(yù)測篇詳解
- Python機(jī)器學(xué)習(xí)應(yīng)用之基于天氣數(shù)據(jù)集的XGBoost分類篇解讀
- 深入淺析Python數(shù)據(jù)分析的過程記錄
- Python數(shù)據(jù)分析之Matplotlib的常用操作總結(jié)
- 基于Python實現(xiàn)股票數(shù)據(jù)分析的可視化
- Python數(shù)據(jù)分析基礎(chǔ)之文件的讀取
- python數(shù)據(jù)分析之文件讀取詳解
- Python機(jī)器學(xué)習(xí)應(yīng)用之工業(yè)蒸汽數(shù)據(jù)分析篇詳解
相關(guān)文章
Python利用keyboard模塊實現(xiàn)鍵盤記錄操作
模擬鍵盤操作執(zhí)行自動化任務(wù),我們常用的有pyautowin等自動化操作模塊。今天介紹的這個模塊叫做keyboard,它是純Python原生開發(fā),編譯時完全不需要依賴C語言模塊。一行命令就能完成安裝,非常方便,需要的可以了解一下2022-10-10Python使用pickle進(jìn)行序列化和反序列化的示例代碼
這篇文章主要介紹了Python使用pickle進(jìn)行序列化和反序列化,幫助大家更好的理解和使用python的pickle庫,感興趣的朋友可以了解下2020-09-09python正則匹配查詢港澳通行證辦理進(jìn)度示例分享
分享原創(chuàng)的一段查詢港澳通行證辦理進(jìn)度查詢的python 3.3代碼。利用socket請求相關(guān)網(wǎng)站,獲得結(jié)果后利用正則找出辦理進(jìn)度2013-12-12