Python爬蟲爬取煎蛋網(wǎng)圖片代碼實例
這篇文章主要介紹了Python爬蟲爬取煎蛋網(wǎng)圖片代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
今天,試著爬取了煎蛋網(wǎng)的圖片。
用到的包:
- urllib.request
- os
分別使用幾個函數(shù),來控制下載的圖片的頁數(shù),獲取圖片的網(wǎng)頁,獲取網(wǎng)頁頁數(shù)以及保存圖片到本地。過程簡單清晰明了
直接上源代碼:
import urllib.request import os def url_open(url): req = urllib.request.Request(url) req.add_header('user-agent','Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36') response = urllib.request.urlopen(url) html = response.read() return html def get_page(url): html = url_open(url).decode('utf-8') a = html.find('current-comment-page')+23 b = html.find(']',a) return html[a:b] def find_imgs(url): html = url_open(url).decode('utf-8') img_addrs = [] a = html.find('img src=') while a != -1: b = html.find('.jpg',a ,a+255) if b != -1: img_addrs.append('https:'+html[a+9:b+4]) # 'img src='為9個偏移 '.jpg'為4個偏移 else: b = a+9 a = html.find('img src=', b) return img_addrs def save_imgs(folder, img_addrs): for each in img_addrs: filename = each.split('/')[-1] with open(filename, 'wb') as f: img = url_open(each) f.write(img) print(img_addrs) def download_mm(folder = 'xxoo', pages = 5): os.mkdir(folder) os.chdir(folder) url = 'http://jandan.net/ooxx/' page_num = int(get_page(url)) for i in range(pages): page_num -= i page_url = url + 'page-'+ str(page_num) + '#comments' img_addrs = find_imgs(page_url) save_imgs(folder, img_addrs) if __name__ == '__main__': download_mm()
其中在主函數(shù)download_mm()中,將pages設(shè)置在了5面。
本來設(shè)置的是10,但是在程序執(zhí)行的過程中。出現(xiàn)了404ERROR錯誤
即imgae_url出現(xiàn)了錯誤。嘗試著在save_img()函數(shù)中加入了測試代碼:print(img_addrs),
想到會不會是因為后面頁數(shù)的圖片,img_url的格式出現(xiàn)了改變,導(dǎo)致404,所以將pages改成5,
再次運行,結(jié)果沒有問題,圖片能正常下載:
仔細觀察發(fā)現(xiàn),剛好是在第五面的圖片往后,出現(xiàn)了不可下載的問題(404)。所以在煎蛋網(wǎng)上,我們直接跳到第6面查看圖片的url。
上圖是后5面的圖片url,下圖是前5面的圖片url
而源代碼中,尋找的圖片url為使用find()函數(shù),進行定為<img src=‘'> <.jpg>中的圖片url,所以后5面出現(xiàn)的a href無法匹配,即出現(xiàn)了404 ERROR。如果想要下載后續(xù)的圖片,需要重新添加一個url定位
即在find中將 img src改成 a href,偏移量也需要更改。
總結(jié):
使用find()來定位網(wǎng)頁標(biāo)簽確實太過low,所以以后在爬蟲中要盡量使用正則表達式和Beautifulsoup包來提高效率,而這兩項我還不是特別熟,所以需要更多的訓(xùn)練。
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
OpenCV哈里斯(Harris)角點檢測的實現(xiàn)
這篇文章主要介紹了OpenCV哈里斯 (Harris)角點檢測,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-01-01python中cv2.projectPoints的用法小結(jié)
這篇文章主要介紹了python中cv2.projectPoints的用法,本文通過示例代碼給大家介紹的非常詳細,對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友參考下吧2023-12-12tensorflow實現(xiàn)從.ckpt文件中讀取任意變量
這篇文章主要介紹了tensorflow實現(xiàn)從.ckpt文件中讀取任意變量,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-05-05Pycharm 如何連接遠程服務(wù)器并debug調(diào)試
本文主要介紹了Pycharm 如何連接遠程服務(wù)器并debug調(diào)試,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2022-06-06