Scrapy中詭異xpath的匹配內(nèi)容失效問題及解決
引言
在爬蟲的世界里,xpath是一種非常簡單易用的匹配規(guī)則,方便我們在web世界里提取需要的各類信息。
本文將講述一個xpath規(guī)則無效的問題分析過程。
環(huán)境介紹
Python 3.6.1 Scrapy 1.5.0
問題
在選用xpath之時,都是基于firefox或者chrome中自帶的Web開發(fā)工具來選取的。
這里一般推薦使用chrome的devtool,功能強大,簡單易用,童叟無欺,居家旅游必須良品呀。
具體示意如下:
基于xpath提取信息
基于xpath提取的路徑信息,示例如下:
//*[@id=”SpanPlanSchoolInfo”]/table[2]/tbody/tr[3]/td/table/tbody/tr[2]/td[1]/a
在Scrapy代碼中使用如下:
def parse(self, response): xpath_url = '//*[@id="SpanPlanSchoolInfo"]/table[2]/tbody/tr[3]/td/table/tbody/tr[2]/td[1]/a' urls = response.xpath(xpath_url) .....
但是在實際執(zhí)行中,卻一直沒有匹配到urls,根據(jù)實際上頁面返回正常,同時數(shù)據(jù)也是正確可以匹配到的,那問題出現(xiàn)在哪里呢?
問題分析
根據(jù)結(jié)果來分析,如果頁面存在,但是沒有正確的結(jié)果輸出,則一定是xpath的問題,但是xpath問題是基于chrome自帶的devtools工具copy而來的,怎么可能出錯恩?真是讓人想不透的問題…….
在經(jīng)過一番深入的反復(fù)嘗試之后,主要是基于scrapy提供的強大的scrapy shell交互工具,可以幫助開發(fā)者快速地一步一步地定位問題。
于是采取了逐步縮小xpath的方式,逐步定位問題,終于找到了問題的原因所在,那就是tbody是一個需要移除的tag標簽。
將正確的xpath設(shè)置為:
//*[@id=”SpanPlanSchoolInfo”]/table[2]/tr[3]/td/table/tbody/tr[2]/td[1]/a
問題總結(jié)
雖然問題解決了,但是原因是什么呢?
經(jīng)過分析,主要是由于瀏覽器本身自動為table新增了tbody標簽內(nèi)容,但是在xpath中是不需要的,需要在進行xpath查詢之時移除掉。
以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。