python網(wǎng)絡(luò)爬蟲 Scrapy中selenium用法詳解
引入
在通過scrapy框架進行某些網(wǎng)站數(shù)據(jù)爬取的時候,往往會碰到頁面動態(tài)數(shù)據(jù)加載的情況發(fā)生,如果直接使用scrapy對其url發(fā)請求,是絕對獲取不到那部分動態(tài)加載出來的數(shù)據(jù)值。但是通過觀察我們會發(fā)現(xiàn),通過瀏覽器進行url請求發(fā)送則會加載出對應(yīng)的動態(tài)加載出的數(shù)據(jù)。那么如果我們想要在scrapy也獲取動態(tài)加載出的數(shù)據(jù),則必須使用selenium創(chuàng)建瀏覽器對象,然后通過該瀏覽器對象進行請求發(fā)送,獲取動態(tài)加載的數(shù)據(jù)值。
1.案例分析:
- 需求:爬取網(wǎng)易新聞的國內(nèi)、國際、軍事、無人機板塊下的新聞數(shù)據(jù)
- 需求分析:當點擊國內(nèi)超鏈進入國內(nèi)對應(yīng)的頁面時,會發(fā)現(xiàn)當前頁面展示的新聞數(shù)據(jù)是被動態(tài)加載出來的,如果直接通過程序?qū)rl進行請求,是獲取不到動態(tài)加載出的新聞數(shù)據(jù)的。則需要我們使用selenium實例化一個瀏覽器對象,在該對象中進行url的請求,獲取動態(tài)加載的新聞數(shù)據(jù)。
2.selenium在scrapy中使用的原理分析:

當引擎將國內(nèi)板塊url對應(yīng)的請求提交給下載器后,下載器進行網(wǎng)頁數(shù)據(jù)的下載,然后將下載到的頁面數(shù)據(jù),封裝到response中,提交給引擎,引擎將response再轉(zhuǎn)交給Spiders。Spiders接受到的response對象中存儲的頁面數(shù)據(jù)里是沒有動態(tài)加載的新聞數(shù)據(jù)的。要想獲取動態(tài)加載的新聞數(shù)據(jù),則需要在下載中間件中對下載器提交給引擎的response響應(yīng)對象進行攔截,切對其內(nèi)部存儲的頁面數(shù)據(jù)進行篡改,修改成攜帶了動態(tài)加載出的新聞數(shù)據(jù),然后將被篡改的response對象最終交給Spiders進行解析操作。
3.selenium在scrapy中的使用流程:
- 重寫爬蟲文件的構(gòu)造方法,在該方法中使用selenium實例化一個瀏覽器對象(因為瀏覽器對象只需要被實例化一次)
- 重寫爬蟲文件的closed(self,spider)方法,在其內(nèi)部關(guān)閉瀏覽器對象。該方法是在爬蟲結(jié)束時被調(diào)用
- 重寫下載中間件的process_response方法,讓該方法對響應(yīng)對象進行攔截,并篡改response中存儲的頁面數(shù)據(jù)
- 在配置文件中開啟下載中間件
4.實例:
# 1.spider文件
import scrapy
from wangyiPro.items import WangyiproItem
from selenium import webdriver
class WangyiSpider(scrapy.Spider):
name = 'wangyi'
# allowed_domains = ['www.xxx.con']
start_urls = ['https://news.163.com/']
# 瀏覽器實例化的操作只會被執(zhí)行一次
bro = webdriver.Chrome(executable_path='chromedriver.exe')
urls = []# 最終存放的就是5個板塊對應(yīng)的url
def parse(self, response):
li_list = response.xpath('//*[@id="index2016_wrap"]/div[1]/div[2]/div[2]/div[2]/div[2]/div/ul/li')
for index in [3,4,6,7,8]:
li = li_list[index]
new_url = li.xpath('./a/@herf').extract_first()
self.urls.append(new_url)
# 對5大板塊對應(yīng)的url進行請求發(fā)送
yield scrapy.Request(url=new_url,callback=self.parse_news)
# 用來解析每一個板塊對應(yīng)的新聞數(shù)據(jù)【只能解析到新聞的標題】
def parse_news(self,response):
div_list = response.xpath('//div[@class="ndi_main"]/div')
for div in div_list:
title = div.xpath('./div/div[1]/h3/a/text()').extract_first()
news_detail_url = div.xpath('./div/div[1]/h3/a/@href').extract_first()
# 實例化item對象,將解析到的標題和內(nèi)容存儲到item對象中
item = WangyiproItem()
item['title'] = title
# 對詳情頁的url進行手動請求發(fā)送獲得新聞內(nèi)容
yield scrapy.Request(url=news_detail_url,callback=self.parse_detail,meta={'item':item})
def parse_detail(self,response):
item = response.meta['item']
# 通過response解析出新聞內(nèi)容
content = response.xpath('//div[@id="endText"]//text()').extract()
content = ''.join(content)
item['content'] = content
yield item
def close(self,spider):
# 當爬蟲結(jié)束之后,調(diào)用關(guān)閉瀏覽器方法
print('爬蟲整體結(jié)束~~~~~~~~~~~~~~~~~~~')
self.bro.quit()
----------------------------------------------------------------------------------------
# 2.items文件
import scrapy
class WangyiproItem(scrapy.Item):
# define the fields for your item here like:
# name = scrapy.Field()
title = scrapy.Field()
content = scrapy.Field()
----------------------------------------------------------------------------------------
# 3.middlewares文件
from scrapy import signals
from scrapy.http import HtmlResponse
from time import sleep
class WangyiproDownloaderMiddleware(object):
def process_request(self, request, spider):
return None
def process_response(self, request, response, spider):
# 判斷哪些響應(yīng)對象是5個板塊的,如果在就對響應(yīng)對象進行處理
if response.url in spider.urls:
# 獲取在爬蟲類中定義好的瀏覽器
bro = spider.bro
bro.get(response.url)
bro.execute_script('window.scrollTo(0,document.body.scrollHeight)')
sleep(1)
bro.execute_script('window.scrollTo(0,document.body.scrollHeight)')
sleep(1)
bro.execute_script('window.scrollTo(0,document.body.scrollHeight)')
sleep(1)
bro.execute_script('window.scrollTo(0,document.body.scrollHeight)')
sleep(1)
# 獲取攜帶了新聞數(shù)據(jù)的頁面源碼數(shù)據(jù)
page_text = bro.page_source
# 實例化一個新的響應(yīng)對象
new_response = HtmlResponse(url=response.url,body=page_text,encoding='utf-8',request=request)
return new_response
else:
return response
def process_exception(self, request, exception, spider):
pass
----------------------------------------------------------------------------------------
# 4.pipelines文件
class WangyiproPipeline(object):
def process_item(self, item, spider):
print(item)
return item
----------------------------------------------------------------------------------------
# 5.setting文件
BOT_NAME = 'wangyiPro'
SPIDER_MODULES = ['wangyiPro.spiders']
NEWSPIDER_MODULE = 'wangyiPro.spiders'
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'
ROBOTSTXT_OBEY = False
DOWNLOADER_MIDDLEWARES = {
'wangyiPro.middlewares.WangyiproDownloaderMiddleware': 543,
}
ITEM_PIPELINES = {
'wangyiPro.pipelines.WangyiproPipeline': 300,
}
LOG_LEVEL = 'ERROR'
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- python網(wǎng)絡(luò)爬蟲selenium打開多窗口與切換頁面的實現(xiàn)
- python實現(xiàn)selenium網(wǎng)絡(luò)爬蟲的方法小結(jié)
- Python+selenium實現(xiàn)趣頭條的視頻自動上傳與發(fā)布
- Python + selenium 自動化測試框架詳解
- python自動化測試selenium屏幕截圖示例
- Python編程使用Selenium模擬淘寶登錄實現(xiàn)過程
- Python+selenium 自動化快手短視頻發(fā)布的實現(xiàn)過程
- Python結(jié)合Selenium簡單實現(xiàn)Web自動化測試
- 利用Python+Selenium破解春秋航空網(wǎng)滑塊驗證碼的實戰(zhàn)過程
- python網(wǎng)絡(luò)爬蟲基于selenium爬取斗魚直播信息
相關(guān)文章
tensorflow實現(xiàn)在函數(shù)中用tf.Print輸出中間值
今天小編就為大家分享一篇tensorflow實現(xiàn)在函數(shù)中用tf.Print輸出中間值,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-01-01
Python批量查詢關(guān)鍵詞微信指數(shù)實例方法
在本篇文章中小編給大家整理的是關(guān)于Python批量查詢關(guān)鍵詞微信指數(shù)實例方法以及相關(guān)代碼,需要的朋友們可以跟著學(xué)習(xí)下。2019-06-06
Pytorch自定義CNN網(wǎng)絡(luò)實現(xiàn)貓狗分類詳解過程
PyTorch是一個開源的Python機器學(xué)習(xí)庫,基于Torch,用于自然語言處理等應(yīng)用程序。它不僅能夠?qū)崿F(xiàn)強大的GPU加速,同時還支持動態(tài)神經(jīng)網(wǎng)絡(luò)。本文將介紹PyTorch自定義CNN網(wǎng)絡(luò)實現(xiàn)貓狗分類,感興趣的可以學(xué)習(xí)一下2022-12-12
淺談python實現(xiàn)Google翻譯PDF,解決換行的問題
今天小編就為大家分享一篇淺談python實現(xiàn)Google翻譯PDF,解決換行的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11
Django 實現(xiàn)將圖片轉(zhuǎn)為Base64,然后使用json傳輸
這篇文章主要介紹了Django 實現(xiàn)將圖片轉(zhuǎn)為Base64,然后使用json傳輸,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03

