亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解

 更新時(shí)間:2018年06月13日 10:13:13   作者:CHZZBECK  
今天小編就為大家分享一篇Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧

在對于淘寶,京東這類網(wǎng)站爬取數(shù)據(jù)時(shí),通常直接使用發(fā)送請求拿回response數(shù)據(jù),在解析獲取想要的數(shù)據(jù)時(shí)比較難的,因?yàn)閿?shù)據(jù)只有在瀏覽網(wǎng)頁的時(shí)候才會(huì)動(dòng)態(tài)加載,所以要想爬取淘寶京東上的數(shù)據(jù),可以使用selenium來進(jìn)行模擬操作

對于scrapy框架,下載器來說已經(jīng)沒多大用,因?yàn)楂@取的response源碼里面沒有想要的數(shù)據(jù),因?yàn)闆]有加載出來,所以要在請求發(fā)給下載中間件的時(shí)候直接使用selenium對請求解析,獲得完整response直接返回,不經(jīng)過下載器下載,上代碼

from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time
from scrapy.http.response.html import HtmlResponse
from scrapy.http.response.text import TextResponse
from selenium.webdriver import ActionChains
 
class TaobaoMiddleware(object):
 
 #處理請求函數(shù)
 def process_request(self,request,spider):
  #聲明一個(gè)Options對象
  opt = Options()
  #給對象添加一個(gè)--headless參數(shù),表示無頭啟動(dòng)
  opt.add_argument('--headless')
  #把配置參數(shù)應(yīng)用到驅(qū)動(dòng)創(chuàng)建的對象
  driver = webdriver.Chrome(options=opt)
  #打開requests中的地址
  driver.get(request.url)
 
  #讓瀏覽器滾動(dòng)到底部
  for x in range(1,11):
   j = x / 10
   js = "document.documentElement.scrollTop = document.documentElement.scrollHeight*%f"%j
   driver.execute_script(js)
   #每次滾動(dòng)等待0.5s
   time.sleep(5)
 
  #獲取下一頁按鈕的標(biāo)簽
  next_btn =driver.find_element_by_xpath('//span[contains(text(),"下一頁")]')
  #睡眠0.5秒
  time.sleep(0.5)
  #對下一頁標(biāo)簽進(jìn)行鼠標(biāo)右鍵觸發(fā)事件
  ActionChains(driver).context_click(next_btn).click().perform()
  # driver.save_screenshot('截圖.png')
  #把驅(qū)動(dòng)對象獲得的源碼賦值給新變量
  page_source = driver.page_source
  #退出
  driver.quit()
 
  #根據(jù)網(wǎng)頁源代碼,創(chuàng)建Htmlresponse對象
  response = HtmlResponse(url=request.url,body=page_source,encoding='utf-8',request=request)
  #因?yàn)榉祷氐氖俏谋鞠?所以需要指定字符編碼格式
 
  return response
 
 def process_response(self,request,response,spider):
 
  return response
 
 def process_exception(self,request,exception,spider):
  pass

以上這篇Scrapy基于selenium結(jié)合爬取淘寶的實(shí)例講解就是小編分享給大家的全部內(nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論