在Python中使用NLTK庫實現(xiàn)對詞干的提取的教程
什么是詞干提取?
在語言形態(tài)學和信息檢索里,詞干提取是去除詞綴得到詞根的過程─—得到單詞最一般的寫法。對于一個詞的形態(tài)詞根,詞干并不需要完全相同;相關的詞映射到同一個詞干一般能得到滿意的結果,即使該詞干不是詞的有效根。從1968年開始在計算機科學領域出現(xiàn)了詞干提取的相應算法。很多搜索引擎在處理詞匯時,對同義詞采用相同的詞干作為查詢拓展,該過程叫做歸并。
一個面向英語的詞干提取器,例如,要識別字符串“cats”、“catlike”和“catty”是基于詞根“cat”;“stemmer”、“stemming”和“stemmed”是基于詞根“stem”。一根詞干提取算法可以簡化詞 “fishing”、“fished”、“fish”和“fisher” 為同一個詞根“fish”。
技術方案的選擇
Python和R是數(shù)據(jù)分析的兩種主要語言;相對于R,Python更適合有大量編程背景的數(shù)據(jù)分析初學者,尤其是已經(jīng)掌握Python語言的程序員。所以我們選擇了Python和NLTK庫(Natual Language Tookit)作為文本處理的基礎框架。此外,我們還需要一個數(shù)據(jù)展示工具;對于一個數(shù)據(jù)分析師來說,數(shù)據(jù)庫的冗繁安裝、連接、建表等操作實在是不適合進行快速的數(shù)據(jù)分析,所以我們使用Pandas作為結構化數(shù)據(jù)和分析工具。
環(huán)境搭建
我們使用的是Mac OS X,已預裝Python 2.7.
安裝NLTK
sudo pip install nltk
安裝Pandas
sudo pip install pandas
對于數(shù)據(jù)分析來說,最重要的是分析結果,iPython notebook是必備的一款利器,它的作用在于可以保存代碼的執(zhí)行結果,例如數(shù)據(jù)表格,下一次打開時無需重新運行即可查看。
安裝iPython notebook
sudo pip install ipython
創(chuàng)建一個工作目錄,在工作目錄下啟動iPython notebook,服務器會開啟http://127.0.0.1:8080頁面,并將創(chuàng)建的代碼文檔保存在工作目錄之下。
mkdir Codes cd Codes ipython notebook
文本處理
數(shù)據(jù)表創(chuàng)建
使用Pandas創(chuàng)建數(shù)據(jù)表 我們使用得到的樣本數(shù)據(jù),建立DataFrame——Pandas中一個支持行、列的2D數(shù)據(jù)結構。
from pandas import DataFrame import pandas as pd d = ['pets insurance','pets insure','pet insurance','pet insur','pet insurance"','pet insu'] df = DataFrame(d) df.columns = ['Words'] df
顯示結果

NLTK分詞器介紹
RegexpTokenizer:正則表達式分詞器,使用正則表達式對文本進行處理,就不多作介紹。
PorterStemmer:波特詞干算法分詞器,原理可看這里:http://snowball.tartarus.org/algorithms/english/stemmer.html
第一步,我們創(chuàng)建一個去除標點符號等特殊字符的正則表達式分詞器:
import nltk tokenizer = nltk.RegexpTokenizer(r'w+')
接下來,對準備好的數(shù)據(jù)表進行處理,添加詞干將要寫入的列,以及統(tǒng)計列,預設默認值為1:
df["Stemming Words"] = "" df["Count"] = 1
讀取數(shù)據(jù)表中的Words列,使用波特詞干提取器取得詞干:
j = 0
while (j <= 5):
for word in tokenizer.tokenize(df["Words"][j]):
df["Stemming Words"][j] = df["Stemming Words"][j] + " " + nltk.PorterStemmer().stem_word(word)
j += 1
df
Good!到這一步,我們已經(jīng)基本上實現(xiàn)了文本處理,結果顯示如下:

分組統(tǒng)計
在Pandas中進行分組統(tǒng)計,將統(tǒng)計表格保存到一個新的DataFrame結構uniqueWords中:
uniqueWords = df.groupby(['Stemming Words'], as_index = False).sum().sort(['Count']) uniqueWords

注意到了嗎?依然還有一個pet insu未能成功處理。
拼寫檢查
對于用戶拼寫錯誤的詞語,我們首先想到的是拼寫檢查,針對Python我們可以使用enchant:
sudo pip install enchant
使用enchant進行拼寫錯誤檢查,得到推薦詞:
import enchant
from nltk.metrics import edit_distance
class SpellingReplacer(object):
def __init__(self, dict_name='en', max_dist=2):
self.spell_dict = enchant.Dict(dict_name)
self.max_dist = 2
def replace(self, word):
if self.spell_dict.check(word):
return word
suggestions = self.spell_dict.suggest(word)
if suggestions and edit_distance(word, suggestions[0]) <=
self.max_dist:
return suggestions[0]
else:
return word
from replacers import SpellingReplacer
replacer = SpellingReplacer()
replacer.replace('insu')
'insu'
但是,結果依然不是我們預期的“insur”。能不能換種思路呢?
算法特殊性
用戶輸入非常重要的特殊性來自于行業(yè)和使用場景。采取通用的英語大詞典來進行拼寫檢查,無疑是行不通的,并且某些詞語恰恰是拼寫正確,但本來卻應該是另一個詞。但是,我們?nèi)绾伟堰@些背景信息和數(shù)據(jù)分析關聯(lián)起來呢?
經(jīng)過一番思考,我認為最重要的參考庫恰恰就在已有的數(shù)據(jù)分析結果中,我們回來看看:

已有的5個“pet insur”,其實就已經(jīng)給我們提供了一份數(shù)據(jù)參考,我們已經(jīng)可以對這份數(shù)據(jù)進行聚類,進一步除噪。
相似度計算
對已有的結果進行相似度計算,將滿足最小偏差的數(shù)據(jù)歸類到相似集中:
import Levenshtein
minDistance = 0.8
distance = -1
lastWord = ""
j = 0
while (j < 1):
lastWord = uniqueWords["Stemming Words"][j]
distance = Levenshtein.ratio(uniqueWords["Stemming Words"][j], uniqueWords["Stemming Words"][j + 1])
if (distance > minDistance):
uniqueWords["Stemming Words"][j] = uniqueWords["Stemming Words"][j + 1]
j += 1
uniqueWords
查看結果,已經(jīng)匹配成功!

最后一步,重新對數(shù)據(jù)結果進行分組統(tǒng)計:
uniqueWords = uniqueWords.groupby(['Stemming Words'], as_index = False).sum() uniqueWords
到此,我們已經(jīng)完成了初步的文本處理。

相關文章
Python列表常見操作詳解(獲取,增加,刪除,修改,排序等)
這篇文章主要介紹了Python列表常見操作,結合實例形式總結分析了Python列表常見的獲取、增加、刪除、修改、排序、計算等相關操作技巧,需要的朋友可以參考下2019-02-02
Python+redis通過限流保護高并發(fā)系統(tǒng)
這篇文章主要介紹了Python+redis通過限流保護高并發(fā)系統(tǒng),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-04-04
python實現(xiàn)數(shù)據(jù)預處理之填充缺失值的示例
下面小編就為大家分享一篇python實現(xiàn)數(shù)據(jù)預處理之填充缺失值的示例。具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2017-12-12
python中使用paramiko模塊并實現(xiàn)遠程連接服務器執(zhí)行上傳下載功能
paramiko是用python語言寫的一個模塊,遵循SSH2協(xié)議,支持以加密和認證的方式,進行遠程服務器的連接。這篇文章主要介紹了python中使用paramiko模塊并實現(xiàn)遠程連接服務器執(zhí)行上傳下載功能,需要的朋友可以參考下2020-02-02
Python通用驗證碼識別OCR庫之ddddocr驗證碼識別
dddd_ocr也是一個用于識別驗證碼的開源庫,又名帶帶弟弟ocr,爬蟲界大佬sml2h3開發(fā),識別效果也是非常不錯,下面這篇文章主要給大家介紹了關于Python通用驗證碼識別OCR庫之ddddocr驗證碼識別的相關資料,需要的朋友可以參考下2022-05-05

