python?sklearn數(shù)據(jù)預處理之數(shù)據(jù)縮放詳解
數(shù)據(jù)的預處理是數(shù)據(jù)分析,或者機器學習訓練前的重要步驟。
通過數(shù)據(jù)預處理,可以
- 提高數(shù)據(jù)質(zhì)量,處理數(shù)據(jù)的缺失值、異常值和重復值等問題,增加數(shù)據(jù)的準確性和可靠性
- 整合不同數(shù)據(jù),數(shù)據(jù)的來源和結構可能多種多樣,分析和訓練前要整合成一個數(shù)據(jù)集
- 提高數(shù)據(jù)性能,對數(shù)據(jù)的值進行變換,規(guī)約等(比如無量綱化),讓算法更加高效
本篇介紹的數(shù)據(jù)縮放處理,主要目的是消除數(shù)據(jù)的不同特征之間的量綱差異,使得每個特征的數(shù)值范圍相同。這樣可以避免某些特征對模型的影響過大,從而提高模型的性能。
1. 原理
數(shù)據(jù)縮放有多種方式,其中有一種按照最小值-最大值縮放的算法是最常用的。
其主要步驟如下:
- 計算數(shù)據(jù)列的最小值(
min
)和最大值(max
) - 對數(shù)據(jù)列中的每個值進行最小-最大縮放,即將其轉換為 **[0,1]區(qū)間 **之內(nèi)的一個值
縮放公式為:new_data=(data−min?)/(max−min)
實現(xiàn)縮放的代碼如下:
# 數(shù)據(jù)縮放的實現(xiàn)原理 data = np.array([10, 20, 30, 40, 50]) min = np.min(data) max = np.max(data) data_new = (data - min) / (max-min) print("處理前: {}".format(data)) print("處理后: {}".format(data_new)) # 運行結果 處理前: [10 20 30 40 50] 處理后: [0. 0.25 0.5 0.75 1. ]
數(shù)值被縮放到 **[0,1]區(qū)間 **之內(nèi)。
這個示例只是為了演示縮放的過程,實際場景中最好使用scikit-learn
庫中的函數(shù)。
scikit-learn
中的minmax_scale
函數(shù)是封裝好的數(shù)據(jù)縮放函數(shù)。
from sklearn import preprocessing as pp data = np.array([10, 20, 30, 40, 50]) pp.minmax_scale(data, feature_range=(0, 1)) # 運行結果 array([0. , 0.25, 0.5 , 0.75, 1. ])
使用scikit-learn
中的minmax_scale
函數(shù)得到的結果是一樣的,數(shù)據(jù)也被壓縮到 **[0,1]區(qū)間 **之內(nèi)。
所以 數(shù)據(jù)縮放 的這個操作有時也被稱為歸一化。
不過,數(shù)據(jù)縮放不一定非得把數(shù)據(jù)壓縮到 **[0,1]區(qū)間 **之內(nèi),
通過調(diào)整feature_range
參數(shù),可以把數(shù)據(jù)壓縮到任意的區(qū)間。
# 壓縮到[0, 1] print(pp.minmax_scale(data, feature_range=(0, 1))) # 壓縮到[-1, 1] print(pp.minmax_scale(data, feature_range=(-1, 1))) # 壓縮到[0, 5] print(pp.minmax_scale(data, feature_range=(0, 5))) # 運行結果 [0. 0.25 0.5 0.75 1. ] [-1. -0.5 0. 0.5 1. ] [0. 1.25 2.5 3.75 5. ]
2. 作用
數(shù)據(jù)縮放的作用主要有:
2.1. 統(tǒng)一數(shù)據(jù)尺度
通過縮放處理,將不同量綱、不同尺度、不同單位的數(shù)據(jù)轉換成一個統(tǒng)一的尺度,
避免由于數(shù)據(jù)量綱不一致而導致的數(shù)據(jù)分析結果失真或誤導。
2.2. 增強數(shù)據(jù)可比性
通過縮放處理,將不同量綱、不同尺度、不同單位的數(shù)據(jù)轉換成一個統(tǒng)一的尺度,使得不同數(shù)據(jù)之間的比較更加方便和有意義。
例如,在評價多個樣本的性能時,如果采用不同的量綱、不同尺度、不同單位進行比較,會導致比較結果不準確甚至誤導。
通過統(tǒng)一的縮放處理之后,可以消除這種影響,使得比較結果更加準確可信。
2.3. 增強數(shù)據(jù)穩(wěn)定性
通過縮放處理,將數(shù)據(jù)的數(shù)值范圍調(diào)整到一個相對較小的區(qū)間內(nèi),
增加數(shù)據(jù)的穩(wěn)定性,避免由于數(shù)據(jù)分布范圍過大或過小而導致的分析誤差或計算誤差。
2.4. 提高算法效率和精度
通過縮放處理,使得一些計算算法的效率和精度得到提高。
例如,在神經(jīng)網(wǎng)絡算法中,如果輸入數(shù)據(jù)的尺度過大或過小,會導致算法訓練時間過長或過短,同時也會影響算法的精度和穩(wěn)定性。
而縮放處理之后,就可以使算法的訓練時間和精度得到優(yōu)化。
3. 總結
在scikit-learn
庫中,處理數(shù)據(jù)縮放不是只有上面的最小值-最大值縮放,
還可用StandardScaler
進行標準化縮放;用RobustScaler
實現(xiàn)尺度縮放和平移等等。
進行數(shù)據(jù)縮放時,需要注意一點,就是縮放處理對異常值非常敏感,
如果數(shù)據(jù)中存在極大或者極小的異常值時,有可能會破壞原始數(shù)據(jù)本身。
所以,縮放處理前,最好把異常值過濾掉。
到此這篇關于python sklearn數(shù)據(jù)預處理之數(shù)據(jù)縮放詳解的文章就介紹到這了,更多相關sklearn數(shù)據(jù)預處理內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關文章希望大家以后多多支持腳本之家!
相關文章
通過Python的filestools庫給圖片添加全圖水印的示例詳解
這篇文章主要介紹了通過Python的filestools庫給圖片添加全圖水印,本文通過實例代碼給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下2023-04-04python ddt實現(xiàn)數(shù)據(jù)驅動
這篇文章主要為大家詳細介紹了python ddt實現(xiàn)數(shù)據(jù)驅動,具有一定的參考價值,感興趣的小伙伴們可以參考一下2018-03-03CentOS 7下Python 2.7升級至Python3.6.1的實戰(zhàn)教程
Centos是目前最為流行的Linux服務器系統(tǒng),其默認的Python 2.x,這篇文章主要給大家分享了關于在CentOS 7下Python 2.7升級至Python3.6.1的實戰(zhàn)教程,文中將升級的步驟一步步的介紹的非常詳細,對大家的理解和學習具有一定的參考學習價值,需要的朋友們下面來一起看看吧。2017-07-07Django中的CACHE_BACKEND參數(shù)和站點級Cache設置
這篇文章主要介紹了Django中的CACHE_BACKEND參數(shù)和站點級Cache設置,Python是最具人氣的Python web框架,需要的朋友可以參考下2015-07-07