Python 爬蟲(chóng)圖片簡(jiǎn)單實(shí)現(xiàn)
Python 爬蟲(chóng)圖片簡(jiǎn)單實(shí)現(xiàn)
經(jīng)常在逛知乎,有時(shí)候希望把一些問(wèn)題的圖片集中保存起來(lái)。于是就有了這個(gè)程序。這是一個(gè)非常簡(jiǎn)單的圖片爬蟲(chóng)程序,只能爬取已經(jīng)刷出來(lái)的部分的圖片。由于對(duì)這一部分內(nèi)容不太熟悉,所以只是簡(jiǎn)單說(shuō)幾句然后記錄代碼,不做過(guò)多的講解。感興趣的可以直接拿去用。親測(cè)對(duì)于知乎等網(wǎng)站是可用的。
上一篇分享了通過(guò)url打開(kāi)圖片的方法,目的就是先看看爬取到的圖片時(shí)什么樣,然后再篩選一下保存。
這里用到了requests庫(kù)來(lái)獲取頁(yè)面信息,需要注意的是,獲取頁(yè)面信息的時(shí)候需要一個(gè)header,用以把程序偽裝成瀏覽器去訪問(wèn)服務(wù)器,不然可能會(huì)被服務(wù)器拒絕。然后用BeautifulSoup來(lái)過(guò)濾多余信息得到圖片地址。得到圖片后,根據(jù)圖片的大小過(guò)濾掉一些頭像、表情包之類(lèi)的小圖片。最后打開(kāi)或者保存圖片的時(shí)候選擇就比較多了,OpenCV,skimage,PIL等都可以。
程序如下:
# -*- coding=utf-8 -*-
import requests as req
from bs4 import BeautifulSoup
from PIL import Image
from io import BytesIO
import os
from skimage import io
url = "https://www.zhihu.com/question/37787176"
headers = {'User-Agent' : 'Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.96 Mobile Safari/537.36'}
response = req.get(url,headers=headers)
content = str(response.content)
#print content
soup = BeautifulSoup(content,'lxml')
images = soup.find_all('img')
print u"共有%d張圖片" % len(images)
if not os.path.exists("images"):
os.mkdir("images")
for i in range(len(images)):
img = images[i]
print u"正在處理第%d張圖片..." % (i+1)
img_src = img.get('src')
if img_src.startswith("http"):
## use PIL
'''
print img_src
response = req.get(img_src,headers=headers)
image = Image.open(BytesIO(response.content))
w,h = image.size
print w,h
img_path = "images/" + str(i+1) + ".jpg"
if w>=500 and h>500:
#image.show()
image.save(img_path)
'''
## use OpenCV
import numpy as np
import urllib
import cv2
resp = urllib.urlopen(img_src)
image = np.asarray(bytearray(resp.read()), dtype="uint8")
image = cv2.imdecode(image, cv2.IMREAD_COLOR)
w,h = image.shape[:2]
print w,h
img_path = "images/" + str(i+1) + ".jpg"
if w>=400 and h>400:
cv2.imshow("Image", image)
cv2.waitKey(3000)
##cv2.imwrite(img_path,image)
## use skimage
## image = io.imread(img_src)
## w,h = image.shape[:2]
## print w,h
#io.imshow(image)
#io.show()
## img_path = "images/" + str(i+1) + ".jpg"
## if w>=500 and h>500:
## image.show()
## image.save(img_path)
## io.imsave(img_path,image)
print u"處理完成!"
這里給出了多種選擇,供參考。
- Python爬蟲(chóng)爬取一個(gè)網(wǎng)頁(yè)上的圖片地址實(shí)例代碼
- Python之多線程爬蟲(chóng)抓取網(wǎng)頁(yè)圖片的示例代碼
- python爬蟲(chóng)獲取京東手機(jī)圖片的圖文教程
- Python爬蟲(chóng)實(shí)現(xiàn)爬取京東手機(jī)頁(yè)面的圖片(實(shí)例代碼)
- Python實(shí)現(xiàn)簡(jiǎn)單的獲取圖片爬蟲(chóng)功能示例
- Python爬蟲(chóng):通過(guò)關(guān)鍵字爬取百度圖片
- 編寫(xiě)Python爬蟲(chóng)抓取暴走漫畫(huà)上gif圖片的實(shí)例分享
- python制作花瓣網(wǎng)美女圖片爬蟲(chóng)
- python實(shí)現(xiàn)爬蟲(chóng)下載美女圖片
- 簡(jiǎn)單的抓取淘寶圖片的Python爬蟲(chóng)
- 簡(jiǎn)單的Python抓taobao圖片爬蟲(chóng)
- Python爬蟲(chóng)實(shí)現(xiàn)百度圖片自動(dòng)下載
相關(guān)文章
對(duì)Python中type打開(kāi)文件的方式介紹
下面小編就為大家介紹一下對(duì)Python中type打開(kāi)文件的方式。具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-04-04
python庫(kù)patchworklib多圖表整合用法示例探究
這篇文章主要介紹了python庫(kù)patchworklib對(duì)齊matplotlib圖表,將多個(gè)圖表的整合為單一圖表用法示例探究,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2024-01-01

