python3解析庫pyquery的深入講解
前言
pyquery是一個類似jquery的python庫,它實(shí)現(xiàn)能夠在xml文檔中進(jìn)行jQuery查詢,pyquery使用lxml解析器進(jìn)行快速在xml和html文檔上操作,它提供了和jQuery類似的語法來解析HTML文檔,支持CSS選擇器,使用非常方便
1、pyquery安裝
pip方式安裝:
$pip install pyquery #它依賴cssselect和lxml包 pyquery==1.4.0 - cssselect [required: >0.7.9, installed: 1.0.3] #CSS選擇器并將它轉(zhuǎn)換為XPath表達(dá)式 - lxml [required: >=2.1, installed: 4.2.2] #處理xml和html解析庫
驗(yàn)證安裝:
In [1]: import pyquery In [2]: pyquery.text Out[2]: <module 'pyquery.text' from '/root/pp1/.venv/lib/python3.6/site-packages/pyquery/text.py'>
2、pyquery對象初始化
pyquery首先需要傳入HTML文本來初始化一個pyquery對象,它的初始化方式有多種,如直接傳入字符串,傳入URL或者傳入文件名
(1)字符串初始化
from pyquery import PyQuery as pq
html='''
<div id="wenzhangziti" class="article 389862"><p>人生是一條沒有盡頭的路,不要留戀逝去的夢,把命運(yùn)掌握在自己手中,讓我們來掌握自己的命運(yùn),別讓別人的干擾與誘惑,別讓功名與利祿,來打翻我們這壇陳釀已久的命運(yùn)之酒!</p>
</div>
'''
doc=pq(html) #初始化并創(chuàng)建pyquery對象
print(type(doc))
print(doc('p').text())
#
<class 'pyquery.pyquery.PyQuery'>
人生是一條沒有盡頭的路,不要留戀逝去的夢,把命運(yùn)掌握在自己手中,讓我們來掌握自己的命運(yùn),別讓別人的干擾與誘惑,別讓功名與利祿,來打翻我們這壇陳釀已久的命運(yùn)之酒!
(2)URL初始化
from pyquery import PyQuery as pq
doc=pq(url='https://www.cnblogs.com/zhangxinqi/p/9218395.html')
print(type(doc))
print(doc('title'))
#
<class 'pyquery.pyquery.PyQuery'>
<title>python3解析庫BeautifulSoup4 - Py.qi - 博客園</title>
PyQuery能夠從url加載一個html文檔,之際上是默認(rèn)情況下調(diào)用python的urllib庫去請求響應(yīng),如果requests已安裝的話它將使用requests來請求響應(yīng),那我們就可以使用request的請求參數(shù)來構(gòu)造請求了,實(shí)際請求如下:
from pyquery import PyQuery as pq
import requests
doc=pq(requests.get(url='https://www.cnblogs.com/zhangxinqi/p/9218395.html').text)
print(type(doc))
print(doc('title'))
#輸出同上一樣
<class 'pyquery.pyquery.PyQuery'>
<title>python3解析庫BeautifulSoup4 - Py.qi - 博客園</title>
(3)通過文件初始化
通過本地的HTML文件來構(gòu)造PyQuery對象
from pyquery import PyQuery as pq
doc=pq(filename='demo.html',parser='html')
#doc=pq(open('demo.html','r',encoding='utf-8').read(),parser='html') #注意:在讀取有中文的HTML文件時,請使用此方法,否則會報解碼錯誤
print(type(doc))
print(doc('p'))
3、CSS選擇器
在使用屬性選擇器中,使用屬性選擇特定的標(biāo)簽,標(biāo)簽和CSS標(biāo)識必須引用為字符串,它會過濾篩選符合條件的節(jié)點(diǎn)打印輸出,返回的是一個PyQuery類型對象
from pyquery import PyQuery as pq
import requests
html='''
<div id="container">
<ul class="list">
<li class="item-0">first item</li>
<li class="item-1"><a href="link2.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >second item</a></li>
<li class="item-0 active"><a href="link3.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" ><span class="bold">third item</span></a></li>
<li class="item-1 active"><a href="link4.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >fourth item</a></li>
<li class="item-0"><a href="link5.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >fifth item</a></li>
</ul>
</div>
'''
doc=pq(html,parser='html')
print(doc('#container .list .item-0 a'))
print(doc('.list .item-1'))
#
<a href="link3.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" ><span class="bold">third item</span></a><a href="link5.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >fifth item</a>
<li class="item-1"><a href="link2.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >second item</a></li>
<li class="item-1 active"><a href="link4.html" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >fourth item</a></li>
4、查找節(jié)點(diǎn)
PyQuery使用查詢函數(shù)來查詢節(jié)點(diǎn),同jQuery中的函數(shù)用法完全相同
(1)查找子節(jié)點(diǎn)和子孫節(jié)點(diǎn)
使用find()方法獲取子孫節(jié)點(diǎn),children()獲取子節(jié)點(diǎn),使用以上的HTML代碼測試
from pyquery import PyQuery as pq
import requests
doc=pq(html,parser='html')
print('find:',doc.find('a'))
print('children:',doc('li').children('a'))
(2)獲取父節(jié)點(diǎn)和祖先節(jié)點(diǎn)
parent()方法獲取父節(jié)點(diǎn),parents()獲取祖先節(jié)點(diǎn)
doc(.list).parent() doc(.list).parents()
(3)獲取兄弟節(jié)點(diǎn)
siblings()方法用來獲取兄弟節(jié)點(diǎn),可以嵌套使用,傳入CSS選擇器即可繼續(xù)匹配
doc('.list .item-0 .active').siblings('.active')
5、遍歷
對于pyquery的選擇結(jié)果可能是多個字節(jié),也可能是單個節(jié)點(diǎn),類型都是PyQuery類型,它沒有返回列表等形式,對于當(dāng)個節(jié)點(diǎn)我們可指直接打印輸出或者直接轉(zhuǎn)換成字符串,而對于多個節(jié)點(diǎn)的結(jié)果,我們需要遍歷來獲取所有節(jié)點(diǎn)可以使用items()方法,它會返回一個生成器,循環(huán)得到的每個節(jié)點(diǎn)類型依然是PyQuery類型,所以我們可以繼續(xù)方法來選擇節(jié)點(diǎn)或?qū)傩?,?nèi)容等
lis=doc('li').items()
for i in lis:
print(i('a')) #繼續(xù)獲取節(jié)點(diǎn)下的子節(jié)點(diǎn)
6、獲取信息
attr()方法用來獲取屬性,如返回的結(jié)果有多個時可以調(diào)用items()方法來遍歷獲取
doc('.item-0.active a').attr('href') #多屬性值中間不能有空格
text()方法用來獲取文本內(nèi)容,它只返回內(nèi)部的文本信息不包括HTML文本內(nèi)容,如果想返回包括HTML的文本內(nèi)容可以使用html()方法,如果結(jié)果有多個,text()方法會方法所有節(jié)點(diǎn)的文本信息內(nèi)容并將它們拼接用空格分開返回字符串內(nèi)容,html()方法只會返回第一個節(jié)點(diǎn)的HTML文本,如果要獲取所有就需要使用items()方法來遍歷獲取了
from pyquery import PyQuery as pq
html='''
<div id="container">
<ul class="list">
<li class="item-0">first item</li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-0 active"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-1 active"><a href="link4.html">fourth item</a></li>
<li class="item-0"><a href="link5.html">fifth item</a></li>
</ul>
</div>
'''
doc=pq(html,parser='html')
print('text:',doc('li').text()) #獲取li節(jié)點(diǎn)下的所有文本信息
lis=doc('li').items()
for i in lis:
print('html:',i.html()) #獲取所有l(wèi)i節(jié)點(diǎn)下的HTML文本
#
text: first item second item third item fourth item fifth item
html: first item
html: <a href="link2.html">second item</a>
html: <a href="link3.html"><span class="bold">third item</span></a>
html: <a href="link4.html">fourth item</a>
html: <a href="link5.html">fifth item</a>
7、節(jié)點(diǎn)操作
pyquery提供了一系列方法來對節(jié)點(diǎn)進(jìn)行動態(tài)修改,如添加一個class,移除某個節(jié)點(diǎn),修改某個屬性的值
addClass()增加Class,removeClass()刪除Class
attr()增加屬性和值,text()增加文本內(nèi)容,html()增加HTML文本,remove()移除
from pyquery import PyQuery as pq
import requests
html='''
<div id="container">
<ul class="list">
<li id="1">first item</li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-2 active"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-3 active"><a href="link4.html">fourth item</a></li>
<li class="item-4"><a href="link5.html">fifth item</a></li>
</ul>
</div>
'''
doc=pq(html,parser='html')
print(doc('#1'))
print(doc('#1').add_class('myclass')) #增加Class
print(doc('.item-1').remove_class('item-1')) #刪除Class
print(doc('#1').attr('name','link')) #添加屬性name=link
print(doc('#1').text('hello world')) #添加文本
print(doc('#1').html('<span>changed item</span>')) #添加HTML文本
print(doc('.item-2.active a').remove('span')) #刪除節(jié)點(diǎn)
#
<li id="1">first item</li>
<li id="1" class="myclass">first item</li>
<li class=""><a href="link2.html">second item</a></li>
<li id="1" class="myclass" name="link">first item</li>
<li id="1" class="myclass" name="link">hello world</li>
<li id="1" class="myclass" name="link"><span>changed item</span></li>
<a href="link3.html"/>
after()在節(jié)點(diǎn)后添加值
before()在節(jié)點(diǎn)之前插入值
append()將值添加到每個節(jié)點(diǎn)
contents()返回文本節(jié)點(diǎn)內(nèi)容
empty()刪除節(jié)點(diǎn)內(nèi)容
remove_attr()刪除屬性
val()設(shè)置或獲取屬性值
另外還有很多節(jié)點(diǎn)操作方法,它們和jQuery的用法完全一致,詳細(xì)請參考:http://pyquery.readthedocs.io/en/latest/api.html
8、偽類選擇器
CSS選擇器之所以強(qiáng)大,是因?yàn)樗С侄喾N多樣的偽類選擇器,如:選擇第一個節(jié)點(diǎn),最后一個節(jié)點(diǎn),奇偶數(shù)節(jié)點(diǎn)等。
#!/usr/bin/env python
#coding:utf-8
from pyquery import PyQuery as pq
html='''
<div id="container">
<ul class="list">
<li id="1">first item</li>
<li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-2 active"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-3 active"><a href="link4.html">fourth item</a></li>
<li class="item-4"><a href="link5.html">fifth item</a></li>
</ul>
<div><input type="text" value="username"/></div>
</div>
'''
doc=pq(html,parser='html')
print('第一個li節(jié)點(diǎn):',doc('li:first-child')) #第一個li節(jié)點(diǎn)
print('最后一個li節(jié)點(diǎn):',doc('li:last_child')) #最后一個li節(jié)點(diǎn)
print('第二個li節(jié)點(diǎn):',doc('li:nth-child(2)')) #第二個li節(jié)點(diǎn)
print('第三個之后的所有l(wèi)i節(jié)點(diǎn):',doc('li:gt(2)')) #第三個之后的所有l(wèi)i節(jié)點(diǎn)
print('偶數(shù)的所有l(wèi)i節(jié)點(diǎn):',doc('li:nth-child(2n)')) #偶數(shù)的所有l(wèi)i節(jié)點(diǎn)
print('包含文本內(nèi)容的節(jié)點(diǎn):',doc('li:contains(second)')) #包含文本內(nèi)容的節(jié)點(diǎn)
print('索引第一個節(jié)點(diǎn):',doc('li:eq(0)'))
print('奇數(shù)節(jié)點(diǎn):',doc('li:even'))
print('偶數(shù)節(jié)點(diǎn):',doc('li:odd'))
#
第一個li節(jié)點(diǎn): <li id="1">first item</li>
最后一個li節(jié)點(diǎn): <li class="item-4"><a href="link5.html">fifth item</a></li>
第二個li節(jié)點(diǎn): <li class="item-1"><a href="link2.html">second item</a></li>
第三個之后的所有l(wèi)i節(jié)點(diǎn): <li class="item-3 active"><a href="link4.html">fourth item</a></li>
<li class="item-4"><a href="link5.html">fifth item</a></li>
偶數(shù)的所有l(wèi)i節(jié)點(diǎn): <li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-3 active"><a href="link4.html">fourth item</a></li>
包含文本內(nèi)容的節(jié)點(diǎn): <li class="item-1"><a href="link2.html">second item</a></li>
索引第一個節(jié)點(diǎn): <li id="1">first item</li>
奇數(shù)節(jié)點(diǎn): <li id="1">first item</li>
<li class="item-2 active"><a href="link3.html"><span class="bold">third item</span></a></li>
<li class="item-4"><a href="link5.html">fifth item</a></li>
偶數(shù)節(jié)點(diǎn): <li class="item-1"><a href="link2.html">second item</a></li>
<li class="item-3 active"><a href="link4.html">fourth item</a></li>
更多偽類參考:http://pyquery.readthedocs.io/en/latest/pseudo_classes.html
更多css選擇器參考:http://www.w3school.com.cn/cssref/css_selectors.asp
9、實(shí)例應(yīng)用
抓取http://www.mzitu.com網(wǎng)站美女圖片12萬張用時28分鐘,總大小9G,主要受網(wǎng)絡(luò)帶寬影響,下載數(shù)據(jù)有點(diǎn)慢
#!/usr/bin/env python
#coding:utf-8
import requests
from requests.exceptions import RequestException
from pyquery import PyQuery as pq
from PIL import Image
from PIL import ImageFile
from io import BytesIO
import time
from multiprocessing import Pool,freeze_support
ImageFile.LOAD_TRUNCATED_IMAGES = True
headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'
,'Referer':'http://www.mzitu.com'
}
img_headers={
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36'
,'Referer':'http://i.meizitu.net'
}
#保持會話請求
sesion=requests.Session()
#獲取首頁所有URL并返回列表
def get_url(url):
list_url = []
try:
html=sesion.get(url,headers=headers).text
doc=pq(html,parser='html')
url_path=doc('#pins > li').children('a')
for i in url_path.items():
list_url.append(i.attr('href'))
except RequestException as e:
print('get_url_RequestException:',e)
except Exception as e:
print('get_url_Exception:',e)
return list_url
#組合首頁中每個地址的圖片分頁返回列表
def list_get_pages(list_url):
list_url_fen=[]
try:
for i in list_url:
doc_children = pq(sesion.get(i,headers=headers).text,parser='html')
img_number = doc_children('body > div.main > div.content > div.pagenavi > a:nth-child(7) > span').text()
number=int(img_number.strip())
for j in range(1,number+1):
list_url_fen.append(i+'/'+str(j))
except ValueError as e:
print('list_get_pages_ValueError:',e)
except RequestException as e:
print('list_get_pages_RequestException',e)
except Exception as e:
print('list_get_pages_Exception:',e)
return list_url_fen
#獲取image地址并下載圖片
def get_image(url):
im_path=''
try:
html=sesion.get(url, headers=headers).text
doc=pq(html,parser='html')
im_path=doc('.main-image a img').attr('src')
image_names = ''.join(im_path.split('/')[-3:])
image_path = 'D:\images\\' + image_names
with open('img_url.txt','a') as f:
f.write(im_path + '\n')
r=requests.get(im_path,headers=img_headers)
b=BytesIO(r.content)
i=Image.open(b)
i.save(image_path)
b.close()
i.close()
#print('下載圖片:{}成功!'.format(image_names))
except RequestException as e:
print('RequestException:',e)
except OSError as e:
print('OSError:',e)
except Exception as e: #必須捕獲所有異常,運(yùn)行中有一些鏈接地址不符合抓取規(guī)律,需要捕獲異常使程序正常運(yùn)行
print('Exception:',e)
return im_path
#主調(diào)用函數(shù)
def main(item):
url1='http://www.mzitu.com/page/{}'.format(item) #分頁地址
print('開始下載地址:{}'.format(url1))
獲取首頁鏈接地址
html=get_url(url1)
#獲取分頁鏈接地址
list_fenurl = list_get_pages(html)
#根據(jù)分頁鏈接地址獲取圖片并下載
for i in list_fenurl:
get_image(i)
return len(list_fenurl) #統(tǒng)計下載數(shù)
if __name__ == '__main__':
freeze_support() #windows下進(jìn)程調(diào)用時必須添加
pool=Pool() #創(chuàng)建進(jìn)程池
start=time.time()
count=pool.map(main,[i for i in range(1,185)]) #多進(jìn)程運(yùn)行翻頁主頁
print(sum(count),count) #獲取總的下載數(shù)
end=time.time()
data=time.strftime('%M:%S',time.localtime(end-start)) #獲取程序運(yùn)行時間
print('程序運(yùn)行時間:{}分{}秒'.format(*data.split(':')))
#學(xué)習(xí)階段,代碼寫得通用性很差,以后改進(jìn)!
#運(yùn)行結(jié)果
#會有幾個報錯都忽略了是獲取文件名時的分割問題和在圖片很少的情況下導(dǎo)致獲取不到單分頁圖片的數(shù)目,先忽略以后有時間再改正
#Exception: 'NoneType' object has no attribute 'split'
#list_get_pages_ValueError: invalid literal for int() with base 10: '下一頁»'
開始下載地址:http://www.mzitu.com/page/137
OSError: image file is truncated (22 bytes not processed)
開始下載地址:http://www.mzitu.com/page/138
程序運(yùn)行時間:28分27秒
進(jìn)程完成,退出碼 0
pyquery相關(guān)鏈接:
GitHub:https://github.com/gawel/pyquery (本地下載)
PyPI:https://pypi.python.org/pypi/pyquery
官方文檔:http://pyquery.readthedocs.io
總結(jié)
以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,如果有疑問大家可以留言交流,謝謝大家對腳本之家的支持。
- python爬蟲開發(fā)之PyQuery模塊詳細(xì)使用方法與實(shí)例全解
- Python爬蟲輔助利器PyQuery模塊的安裝使用攻略
- Python中類似于jquery的pyquery庫用法分析
- Python爬蟲PyQuery庫基本用法入門教程
- Python網(wǎng)絡(luò)爬蟲神器PyQuery的基本使用教程
- 在Python中使用cookielib和urllib2配合PyQuery抓取網(wǎng)頁信息
- Python中的jquery PyQuery庫使用小結(jié)
- python解析html開發(fā)庫pyquery使用方法
- python使用urllib模塊和pyquery實(shí)現(xiàn)阿里巴巴排名查詢
- 零基礎(chǔ)寫python爬蟲之爬蟲編寫全記錄
- Python爬蟲框架Scrapy安裝使用步驟
- python爬蟲學(xué)習(xí)筆記之pyquery模塊基本用法詳解
相關(guān)文章
Pandas實(shí)現(xiàn)dataframe和np.array的相互轉(zhuǎn)換
今天小編就為大家分享一篇Pandas實(shí)現(xiàn)dataframe和np.array的相互轉(zhuǎn)換,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-11-11
Python實(shí)現(xiàn)的json文件讀取及中文亂碼顯示問題解決方法
這篇文章主要介紹了Python實(shí)現(xiàn)的json文件讀取及中文亂碼顯示問題解決方法,涉及Python針對json文件的讀取載入、編碼轉(zhuǎn)換等相關(guān)操作技巧,需要的朋友可以參考下2018-08-08
Python getattr()函數(shù)使用方法代碼實(shí)例
這篇文章主要介紹了Python getattr()函數(shù)使用方法代碼實(shí)例,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-08-08
python3.6.4安裝opencv3.4.2的實(shí)現(xiàn)
這篇文章主要介紹了python3.6.4安裝opencv3.4.2的實(shí)現(xiàn)方式,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2022-10-10
Python實(shí)現(xiàn)爬蟲設(shè)置代理IP和偽裝成瀏覽器的方法分享
今天小編就為大家分享一篇Python實(shí)現(xiàn)爬蟲設(shè)置代理IP和偽裝成瀏覽器的方法分享,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-05-05
python讀取當(dāng)前目錄下的CSV文件數(shù)據(jù)
這篇文章主要為大家詳細(xì)介紹了python讀取當(dāng)前目錄下的CSV文件數(shù)據(jù),文中示例代碼介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們可以參考一下2020-03-03
詳談Python3 操作系統(tǒng)與路徑 模塊(os / os.path / pathlib)
下面小編就為大家分享一篇詳談Python3 操作系統(tǒng)與路徑 模塊(os / os.path / pathlib),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04

