Python使用爬蟲爬取靜態(tài)網(wǎng)頁圖片的方法詳解
本文實(shí)例講述了Python使用爬蟲爬取靜態(tài)網(wǎng)頁圖片的方法。分享給大家供大家參考,具體如下:
爬蟲理論基礎(chǔ)
其實(shí)爬蟲沒有大家想象的那么復(fù)雜,有時(shí)候也就是幾行代碼的事兒,千萬不要把自己嚇倒了。這篇就清晰地講解一下利用Python爬蟲的理論基礎(chǔ)。
首先說明爬蟲分為三個(gè)步驟,也就需要用到三個(gè)工具。
① 利用網(wǎng)頁下載器將網(wǎng)頁的源碼等資源下載。
② 利用URL管理器管理下載下來的URL
③ 利用網(wǎng)頁解析器解析需要的URL,進(jìn)而進(jìn)行匹配。
網(wǎng)頁下載器
網(wǎng)頁下載器常用的有兩個(gè)。一個(gè)是Python自帶的urllib2模塊;另一個(gè)是第三方控件requests。選用哪個(gè)其實(shí)差異不大,下一篇將會(huì)進(jìn)行實(shí)踐操作舉例。
URL管理器
url管理器有三大類。
① 內(nèi)存:以set形式存儲(chǔ)在內(nèi)存中
② 存儲(chǔ)在關(guān)系型數(shù)據(jù)庫mysql等
③ 緩存數(shù)據(jù)庫redis中
網(wǎng)頁解析器
網(wǎng)頁解析器一共有四類:
1.正則表達(dá)式,不過對(duì)于太復(fù)雜的匹配就會(huì)有些難度,屬于模糊匹配。
2.html.parser,這是python自帶的解析工具。
3.Beautiful Soup,一種第三方控件,顧名思義,美味的湯,用起來確實(shí)很方便,很強(qiáng)大。
4.lxml(apt.xml),第三方控件。
以上的這些全部屬于結(jié)構(gòu)化解析(DOM樹)
什么式結(jié)構(gòu)化解析(DOM)?
Document Object Model(DOM)是一種樹的形式。
Beautiful Soup的語法
html網(wǎng)頁—>創(chuàng)建BeautifulSoup對(duì)象—>搜索節(jié)點(diǎn) find_all()/find()—>訪問節(jié)點(diǎn),名稱,屬性,文字等……
實(shí)現(xiàn)代碼
說過了理論基礎(chǔ),那么現(xiàn)在就來實(shí)踐一個(gè),要爬取一個(gè)靜態(tài)網(wǎng)頁的所有圖片。
這里使用的網(wǎng)頁下載器是python自帶的urllib2,然后利用正則表達(dá)式匹配,輸出結(jié)果。
以下為源碼:
//引入小需要用到的模塊 import urllib2 import re def main(): //利用urllib2的urlopen方法,下載當(dāng)前url的網(wǎng)頁內(nèi)容 req = urllib2.urlopen('http://www.imooc.com/course/list') //將網(wǎng)頁內(nèi)容存儲(chǔ)到buf變量中 buf = req.read() //將buf中的所有內(nèi)容與需要匹配的url進(jìn)行比對(duì)。這里的正則表達(dá)式是根據(jù)靜態(tài)網(wǎng)頁的源碼得出的,查看靜態(tài)網(wǎng)頁源碼開啟開發(fā)者模式,按F12即可。然后確定圖片塊,查看對(duì)應(yīng)源碼內(nèi)容,找出規(guī)律,編寫正則表達(dá)式。 listurl = re.findall(r'src=.+\.jpg',buf) i = 0 //將結(jié)果循環(huán)寫入文件 for url in listurl: f = open(str(i)+'.jpg','w') req = urllib2.urlopen(url[5:]) buf1 = req.read() f.write(buf1) i+=1 if __name__ == '__main__': main()
至此一個(gè)靜態(tài)網(wǎng)頁的圖片爬蟲就完成了,下面來看下效果。
這是靜態(tài)網(wǎng)頁:
以下是爬取的結(jié)果:
更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達(dá)式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對(duì)大家Python程序設(shè)計(jì)有所幫助。
- python爬蟲爬取bilibili網(wǎng)頁基本內(nèi)容
- Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地的實(shí)現(xiàn)代碼
- python爬蟲利器之requests庫的用法(超全面的爬取網(wǎng)頁案例)
- python爬蟲爬取網(wǎng)頁數(shù)據(jù)并解析數(shù)據(jù)
- Python3爬蟲之urllib攜帶cookie爬取網(wǎng)頁的方法
- python爬蟲爬取網(wǎng)頁表格數(shù)據(jù)
- Python爬蟲爬取一個(gè)網(wǎng)頁上的圖片地址實(shí)例代碼
- python爬蟲爬取某圖書網(wǎng)頁實(shí)例講解
相關(guān)文章
Python?任務(wù)自動(dòng)化工具nox?的配置與?API詳情
這篇文章主要介紹了Python?任務(wù)自動(dòng)化工具nox?的配置與?API詳情,Nox?會(huì)話是通過被@nox.session裝飾的標(biāo)準(zhǔn)?Python?函數(shù)來配置的,具體詳情下文相關(guān)介紹需要的小伙伴可以參考一下2022-07-07Python數(shù)據(jù)類型之List列表實(shí)例詳解
這篇文章主要介紹了Python數(shù)據(jù)類型之List列表,結(jié)合實(shí)例形式分析了PythonList列表的概念、功能、定義以及判斷、截取、遍歷、切片等常見操作技巧,需要的朋友可以參考下2019-05-05用Matlab讀取CSV文件出現(xiàn)不匹配問題及解決
這篇文章主要介紹了用Matlab讀取CSV文件出現(xiàn)不匹配問題及解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2023-06-06Django自定義全局403、404、500錯(cuò)誤頁面的示例代碼
這篇文章主要介紹了Django自定義全局403、404、500錯(cuò)誤頁面的示例代碼,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-03-03解決Tensorflow2.0 tf.keras.Model.load_weights() 報(bào)錯(cuò)處理問題
這篇文章主要介紹了解決Tensorflow2.0 tf.keras.Model.load_weights() 報(bào)錯(cuò)處理問題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨想過來看看吧2020-06-06numpy:np.newaxis 實(shí)現(xiàn)將行向量轉(zhuǎn)換成列向量
今天小編就為大家分享一篇numpy:np.newaxis 實(shí)現(xiàn)將行向量轉(zhuǎn)換成列向量,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-11-11用python寫一個(gè)定時(shí)提醒程序的實(shí)現(xiàn)代碼
今天小編就為大家分享一篇用python寫一個(gè)定時(shí)提醒程序的實(shí)現(xiàn)代碼,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2019-07-07