python爬取一組小姐姐圖片實(shí)例
前言
前段時(shí)間我有個(gè)朋友看到一些小姐姐的照片,想全部下載下來(lái),叫我?guī)蛡€(gè)忙。于是花費(fèi)了半天給他全部下載了下來(lái)。
引入庫(kù)
import time import requests from lxml import etree
這三個(gè)庫(kù)是為了讓我們?cè)谡?qǐng)求別人網(wǎng)站的時(shí)候,讓程序休息一會(huì),避免別人的網(wǎng)站會(huì)攔截或者崩潰和將得到的頁(yè)面源代碼進(jìn)行解析。
網(wǎng)頁(yè)分析
利用瀏覽器的開(kāi)發(fā)者模式,對(duì)頁(yè)面進(jìn)行分析,找出我們所需要的每個(gè)圖片封面url
href = tree.xpath('//*[@id="features"]/div/div[1]/div/div[1]/a/@href')
我們得到了封面的url后,但這還不是我們所需要的,我們所需要的是超鏈接里面的圖片
我們進(jìn)入后,發(fā)現(xiàn)每張圖片都在<p></p>里面,如何我們利用循環(huán)得到每張圖片的url地址
for url_img in href: img_url = requests.get(url_img,headers=head) # print(img_url.text) time.sleep(1) t = etree.HTML(img_url.text) url_list = t.xpath("/html/body/section/div/div/div[1]/div[2]/p[2]/img/@src")
剩下的就很簡(jiǎn)單了,我們只需對(duì)文件進(jìn)行保存就得到我們想要的結(jié)果了。
with open(f"./img/{name}",mode="wb") as f: f.write(download_img.content) print("正在下載:" +name) time.sleep(1)
總結(jié)
但同步下載非常慢,我們可以寫(xiě)個(gè)多線(xiàn)程或者異步協(xié)程來(lái)幫助我們下載得更快。
我知道還有很多不足,有沒(méi)有更簡(jiǎn)潔的寫(xiě)法,希望大佬們能指出,謝謝!
完整代碼
import time import requests from lxml import etree def get_page_url(): for i in range(1, 4): # 循環(huán)3頁(yè) url = f"https://mm.tvv.tw/category/xinggan/{i}/" # 請(qǐng)求頁(yè)面得到源代碼 res = requests.get(url,headers=head) # 對(duì)源代碼進(jìn)行解析 tree = etree.HTML(res.text) # 得到每個(gè)圖片的封面url(href) href = tree.xpath('//*[@id="features"]/div/div[1]/div/div[1]/a/@href') # print("-------------------------------------------------------") time.sleep(3) for url_img in href: img_url = requests.get(url_img,headers=head) # print(img_url.text) time.sleep(1) t = etree.HTML(img_url.text) url_list = t.xpath("/html/body/section/div/div/div[1]/div[2]/p[2]/img/@src") # print(url_list) time.sleep(1) for url_src in url_list: get_img(url_src) def get_img(url): name = url.rsplit("/",1)[1] time.sleep(2) download_img = requests.get(url,headers=head) with open(f"./img/{name}",mode="wb") as f: f.write(download_img.content) print("正在下載:" +name) time.sleep(1) f.close() if __name__ == '__main__': head = {"user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/97.0.4692.71 Safari/537.36"} get_page_url()
到此這篇關(guān)于python爬取一組小姐姐圖片實(shí)例的文章就介紹到這了,更多相關(guān)python爬取圖片內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python爬蟲(chóng) requests-html的使用
這篇文章主要介紹了python爬蟲(chóng) requests-html的使用,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-11-11Python讀取大型數(shù)據(jù)文件的6種方式匯總
在 Python 中,我們可以使用多種方法讀取大型數(shù)據(jù)文件,本文主要為大家介紹6個(gè)常用的Python讀取大型數(shù)據(jù)文件的方法,希望對(duì)大家有所幫助2023-05-05odoo?為可編輯列表視圖字段搜索添加查詢(xún)過(guò)濾條件的詳細(xì)過(guò)程
Odoo 是基于 Python 寫(xiě)的一系列開(kāi)源商業(yè)應(yīng)用程序套裝,前身是 OpenERP,這篇文章主要介紹了odoo?為可編輯列表視圖字段搜索添加查詢(xún)過(guò)濾條件,需要的朋友可以參考下2023-02-02python3 常見(jiàn)解密加密算法實(shí)例分析【base64、MD5等】
這篇文章主要介紹了python3 常見(jiàn)解密加密算法,結(jié)合實(shí)例形式分析了Python的base64模塊加密,以及基于pycrypto模塊的MD5加密等相關(guān)操作技巧,需要的朋友可以參考下2019-12-12詳解如何使用Python實(shí)現(xiàn)復(fù)制粘貼的功能
pandas?里面有一個(gè)?pd.read_clipboard?函數(shù),可以根據(jù)你復(fù)制的內(nèi)容生成DataFrame。本文就利用這個(gè)函數(shù)實(shí)現(xiàn)復(fù)制粘貼的功能,感興趣的可以了解一下2023-01-01pandas DataFrame 交集并集補(bǔ)集的實(shí)現(xiàn)
這篇文章主要介紹了pandas DataFrame 交集并集補(bǔ)集的實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-06-06python基于搜索引擎實(shí)現(xiàn)文章查重功能
這篇文章主要介紹了python基于搜索引擎實(shí)現(xiàn)文章查重功能,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2021-05-05Python+wxPython實(shí)現(xiàn)一個(gè)簡(jiǎn)單的音樂(lè)播放器
這篇文章主要為大家詳細(xì)介紹了如何使用Python編程語(yǔ)言和wxPython模塊創(chuàng)建一個(gè)簡(jiǎn)單的音樂(lè)播放器,文中的示例代碼講解詳細(xì),感興趣的可以了解下2023-09-09