亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地的實(shí)現(xiàn)代碼

 更新時(shí)間:2020年12月24日 15:41:28   作者:Guapifang  
這篇文章主要介紹了Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地,本文通過實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下

其實(shí)和爬取普通數(shù)據(jù)本質(zhì)一樣,不過我們直接爬取數(shù)據(jù)會(huì)直接返回,爬取圖片需要處理成二進(jìn)制數(shù)據(jù)保存成圖片格式(.jpg,.png等)的數(shù)據(jù)文本。

現(xiàn)在貼一個(gè)url=https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg
請(qǐng)復(fù)制上面的url直接在某個(gè)瀏覽器打開,你會(huì)看到如下內(nèi)容:

在這里插入圖片描述

這就是通過網(wǎng)頁訪問到的該網(wǎng)站的該圖片,于是我們可以直接利用requests模塊,進(jìn)行這個(gè)圖片的請(qǐng)求,于是這個(gè)網(wǎng)站便會(huì)返回給我們?cè)搱D片的數(shù)據(jù),我們?cè)侔褦?shù)據(jù)寫入本地文件就行,比較簡(jiǎn)單。

import requests
headers={
  'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'
re=requests.get(url,headers=headers)
print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
path='test.jpg'#文件儲(chǔ)存地址
with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
      for chunk in re.iter_content(chunk_size=128):
        f.write(chunk)

然后得到test.jpg圖片,如下

在這里插入圖片描述

點(diǎn)擊打開查看如下:

在這里插入圖片描述

便是下載成功辣,很簡(jiǎn)單吧。

現(xiàn)在分析下批量下載,我們將上面的代碼打包成一個(gè)函數(shù),于是針對(duì)每張圖片,單獨(dú)一個(gè)名字,單獨(dú)一個(gè)圖片文件請(qǐng)求,于是有如下代碼:

import requests
def get_pictures(url,path):
  headers={
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'} 
  re=requests.get(url,headers=headers)
  print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
  with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
        for chunk in re.iter_content(chunk_size=128):
          f.write(chunk)
url='https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-001.jpg'
path='test.jpg'#文件儲(chǔ)存地址
get_pictures(url,path)

現(xiàn)在要實(shí)現(xiàn)批量下載圖片,也就是批量獲得圖片的url,那么我們就得分析網(wǎng)頁的代碼結(jié)構(gòu),打開原始網(wǎng)站https://www.ivsky.com/tupian/bianxingjingang_v622/,會(huì)看到如下的圖片:

在這里插入圖片描述

于是我們需要分別得到該頁面中顯示的所有圖片的url,于是我們?cè)俅斡胷equests模塊返回當(dāng)前該頁面的內(nèi)容,如下:

import requests
headers={
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
url='https://www.ivsky.com/tupian/bianxingjingang_v622/'
re=requests.get(url,headers=headers)
print(re.text)

運(yùn)行會(huì)返回當(dāng)前該頁面的網(wǎng)頁結(jié)構(gòu)內(nèi)容,于是我們找到和圖片相關(guān)的也就是.jpg或者.png等圖片格式的字條,如下:

在這里插入圖片描述

上面圈出來的**//img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg**便是我們的圖片url,不過還需要前面加上https:,于是完成的url就是https://img.ivsky.com/img/tupian/t/201008/05/bianxingjingang-017.jpg。

我們知道了這個(gè)結(jié)構(gòu),現(xiàn)在就是把這個(gè)提取出來,寫個(gè)簡(jiǎn)單的解析式:

import requests
headers={
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
url='https://www.ivsky.com/tupian/bianxingjingang_v622/'
re=requests.get(url,headers=headers)
def get_pictures_urls(text):
  st='img src="'
  m=len(st)
  i=0
  n=len(text)
  urls=[]#儲(chǔ)存url
  while i<n:
    if text[i:i+m]==st:
      url=''
      for j in range(i+m,n):
        if text[j]=='"':
          i=j
          urls.append(url)
          break
        url+=text[j]
    i+=1
  return urls
urls=get_pictures_urls(re.text)
for url in urls:
  print(url)

打印結(jié)果如下:
在這里插入圖片描述

得到了url,現(xiàn)在就直接放入一開始的get_pictures函數(shù)中,爬取圖片辣。

import requests
def get_pictures(url,path):
  headers={
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
  re=requests.get(url,headers=headers)
  print(re.status_code)#查看請(qǐng)求狀態(tài),返回200說明正常
  with open(path, 'wb') as f:#把圖片數(shù)據(jù)寫入本地,wb表示二進(jìn)制儲(chǔ)存
        for chunk in re.iter_content(chunk_size=128):
          f.write(chunk)
def get_pictures_urls(text):
  st='img src="'
  m=len(st)
  i=0
  n=len(text)
  urls=[]#儲(chǔ)存url
  while i<n:
    if text[i:i+m]==st:
      url=''
      for j in range(i+m,n):
        if text[j]=='"':
          i=j
          urls.append(url)
          break
        url+=text[j]
    i+=1
  return urls

headers={
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400'}
url='https://www.ivsky.com/tupian/bianxingjingang_v622/'
re=requests.get(url,headers=headers)
urls=get_pictures_urls(re.text)#獲取當(dāng)前頁面所有圖片的url
for i in range(len(urls)):#批量爬取圖片
  url='https:'+urls[i]
  path='變形金剛'+str(i)+'.jpg'
  get_pictures(url,path)

結(jié)果如下:

在這里插入圖片描述

然后就完成辣,這里只是簡(jiǎn)單介紹下批量爬取圖片的過程,具體的網(wǎng)站需要具體分析,所以本文盡可能詳細(xì)的展示了批量爬取圖片的過程分析,希望對(duì)你的學(xué)習(xí)有所幫助,如有問題請(qǐng)及時(shí)指出,謝謝~

到此這篇關(guān)于Python 爬蟲批量爬取網(wǎng)頁圖片保存到本地的文章就介紹到這了,更多相關(guān)Python 爬蟲爬取圖片保存到本地內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • python 字符串詳解

    python 字符串詳解

    這篇文章主要介紹了Python的字符串,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下,希望能夠給你帶來幫助
    2021-10-10
  • 如何用Python畫一些簡(jiǎn)單形狀你知道嗎

    如何用Python畫一些簡(jiǎn)單形狀你知道嗎

    這篇文章主要介紹了用Python作圖的一個(gè)簡(jiǎn)單實(shí)例,通過turtle模塊實(shí)現(xiàn)作圖,具有一定參考價(jià)值,需要的朋友可以了解下希望能給你帶來幫助
    2021-08-08
  • pycharm使用技巧之自動(dòng)調(diào)整代碼格式總結(jié)

    pycharm使用技巧之自動(dòng)調(diào)整代碼格式總結(jié)

    這篇文章主要給大家介紹了關(guān)于pycharm使用技巧之自動(dòng)調(diào)整代碼格式總結(jié)的相關(guān)資料,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2020-11-11
  • Python處理字節(jié)串:struct.pack和struct.unpack使用

    Python處理字節(jié)串:struct.pack和struct.unpack使用

    這篇文章主要介紹了Python處理字節(jié)串:struct.pack和struct.unpack使用方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2024-01-01
  • pytorch實(shí)現(xiàn)線性擬合方式

    pytorch實(shí)現(xiàn)線性擬合方式

    今天小編就為大家分享一篇pytorch實(shí)現(xiàn)線性擬合方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧
    2020-01-01
  • Python爬蟲實(shí)現(xiàn)百度翻譯功能過程詳解

    Python爬蟲實(shí)現(xiàn)百度翻譯功能過程詳解

    這篇文章主要介紹了Python爬蟲實(shí)現(xiàn)百度翻譯功能過程詳解,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-05-05
  • python內(nèi)置函數(shù)map/filter/reduce詳解

    python內(nèi)置函數(shù)map/filter/reduce詳解

    在Python中,map(), filter(), 和 reduce() 是內(nèi)置的高級(jí)函數(shù)(實(shí)際是class),用于處理可迭代對(duì)象(如列表、元組等)的元素,這篇文章主要介紹了python內(nèi)置函數(shù)map/filter/reduce的相關(guān)知識(shí),需要的朋友可以參考下
    2024-05-05
  • Pandas中Replace函數(shù)使用那些事兒

    Pandas中Replace函數(shù)使用那些事兒

    Pandas是基于NumPy?的一種工具,該工具是為了解決數(shù)據(jù)分析任務(wù)而創(chuàng)建的,下面這篇文章主要給大家介紹了關(guān)于Pandas中Replace函數(shù)使用那些事兒,文中通過實(shí)例代碼以及圖文介紹的非常詳細(xì),需要的朋友可以參考下
    2022-11-11
  • Python如何存儲(chǔ)和讀取ASCII碼形式的byte數(shù)據(jù)

    Python如何存儲(chǔ)和讀取ASCII碼形式的byte數(shù)據(jù)

    這篇文章主要介紹了Python如何存儲(chǔ)和讀取ASCII碼形式的byte數(shù)據(jù),具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2022-05-05
  • django執(zhí)行原生SQL查詢的實(shí)現(xiàn)

    django執(zhí)行原生SQL查詢的實(shí)現(xiàn)

    本文主要介紹了django執(zhí)行原生SQL查詢的實(shí)現(xiàn),主要有兩種方法實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2021-08-08

最新評(píng)論