python解決網(wǎng)站的反爬蟲策略總結(jié)
本文詳細(xì)介紹了網(wǎng)站的反爬蟲策略,在這里把我寫爬蟲以來遇到的各種反爬蟲策略和應(yīng)對的方法總結(jié)一下。
從功能上來講,爬蟲一般分為數(shù)據(jù)采集,處理,儲存三個部分。這里我們只討論數(shù)據(jù)采集部分。
一般網(wǎng)站從三個方面反爬蟲:用戶請求的Headers,用戶行為,網(wǎng)站目錄和數(shù)據(jù)加載方式。前兩種比較容易遇到,大多數(shù)網(wǎng)站都從這些角度來反爬蟲。第三種一些應(yīng)用ajax的網(wǎng)站會采用,這樣增大了爬取的難度(防止靜態(tài)爬蟲使用ajax技術(shù)動態(tài)加載頁面)。
1、從用戶請求的Headers反爬蟲是最常見的反爬蟲策略。
偽裝header。很多網(wǎng)站都會對Headers的User-Agent進(jìn)行檢測,還有一部分網(wǎng)站會對Referer進(jìn)行檢測(一些資源網(wǎng)站的防盜鏈就是檢測Referer)。如果遇到了這類反爬蟲機(jī)制,可以直接在爬蟲中添加Headers,將瀏覽器的User-Agent復(fù)制到爬蟲的Headers中;或者將Referer值修改為目標(biāo)網(wǎng)站域名[評論:往往容易被忽略,通過對請求的抓包分析,確定referer,在程序中模擬訪問請求頭中添加]。對于檢測Headers的反爬蟲,在爬蟲中修改或者添加Headers就能很好的繞過。
2、基于用戶行為反爬蟲
還有一部分網(wǎng)站是通過檢測用戶行為,例如同一IP短時間內(nèi)多次訪問同一頁面,或者同一賬戶短時間內(nèi)多次進(jìn)行相同操作。[這種防爬,需要有足夠多的ip來應(yīng)對]
(1)、大多數(shù)網(wǎng)站都是前一種情況,對于這種情況,使用IP代理就可以解決。可以專門寫一個爬蟲,爬取網(wǎng)上公開的代理ip,檢測后全部保存起來。有了大量代理ip后可以每請求幾次更換一個ip,這在requests或者urllib中很容易做到,這樣就能很容易的繞過第一種反爬蟲。
編寫爬蟲代理:
步驟:
1.參數(shù)是一個字典{'類型':'代理ip:端口號'}
proxy_support=urllib.request.ProxyHandler({})
2.定制、創(chuàng)建一個opener
opener=urllib.request.build_opener(proxy_support)
3a.安裝opener
urllib.request.install_opener(opener)
3b.調(diào)用opener
opener.open(url)
用大量代理隨機(jī)請求目標(biāo)網(wǎng)站,應(yīng)對反爬蟲
#! /usr/bin/env python3.4 #-*- coding:utf-8 -*- #__author__ == "tyomcat" import urllib.request import random import re url='http://www.whatismyip.com.tw' iplist=['121.193.143.249:80','112.126.65.193:80','122.96.59.104:82','115.29.98.139:9999','117.131.216.214:80','116.226.243.166:8118','101.81.22.21:8118','122.96.59.107:843'] proxy_support = urllib.request.ProxyHandler({'http':random.choice(iplist)}) opener=urllib.request.build_opener(proxy_support) opener.addheaders=[('User-Agent','Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.87 Safari/537.36')] urllib.request.install_opener(opener) response = urllib.request.urlopen(url) html = response.read().decode('utf-8') pattern = re.compile('<h1>(.*?)</h1>.*?<h2>(.*?)</h2>') iterms=re.findall(pattern,html) for item in iterms: print(item[0]+":"+item[1])
(2)、對于第二種情況,可以在每次請求后隨機(jī)間隔幾秒再進(jìn)行下一次請求。有些有邏輯漏洞的網(wǎng)站,可以通過請求幾次,退出登錄,重新登錄,繼續(xù)請求來繞過同一賬號短時間內(nèi)不能多次進(jìn)行相同請求的限制。[評論:對于賬戶做防爬限制,一般難以應(yīng)對,隨機(jī)幾秒請求也往往可能被封,如果能有多個賬戶,切換使用,效果更佳]
3、動態(tài)頁面的反爬蟲
上述的幾種情況大多都是出現(xiàn)在靜態(tài)頁面,還有一部分網(wǎng)站,我們需要爬取的數(shù)據(jù)是通過ajax請求得到,或者通過Java生成的。
解決方案:Selenium+PhantomJS
Selenium:自動化web測試解決方案,完全模擬真實的瀏覽器環(huán)境,完全模擬基本上所有的用戶操作
PhantomJS :一個沒有圖形界面的瀏覽器
獲取淘寶妹妹的個人詳情地址:
#! /usr/bin/env python # -*- coding:utf-8 -*- #__author__ == "tyomcat" from selenium import webdriver import time import re drive = webdriver.PhantomJS(executable_path='phantomjs-2.1.1-linux-x86_64/bin/phantomjs') drive.get('https://mm.taobao.com/self/model_info.htm?user_id=189942305&is_coment=false') time.sleep(5) pattern = re.compile(r'<div.*?mm-p-domain-info">.*?class="mm-p-info-cell clearfix">.*?<li>.*?<label>(.*?)</label><span>(.*?)</span>',re.S) html=drive.page_source.encode('utf-8','ignore') items=re.findall(pattern,html) for item in items: print item[0],'http:'+item[1] drive.close()
感謝閱讀,希望能幫助到大家,謝謝大家對本站的支持!
相關(guān)文章
解決pip install xxx報錯SyntaxError: invalid syntax的問題
今天小編就為大家分享一篇解決pip install xxx報錯SyntaxError: invalid syntax的問題,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-11-11Python?pyecharts?Map地圖數(shù)據(jù)不顯示的原因及完美解決
這篇文章主要給大家介紹了關(guān)于Python?pyecharts?Map地圖數(shù)據(jù)不顯示的原因及解決辦法,pyecharts是一款將python與echarts結(jié)合的強(qiáng)大的數(shù)據(jù)可視化工具,文中通過圖文以及代碼示例介紹的非常詳細(xì),需要的朋友可以參考下2023-12-12python使用scapy模塊實現(xiàn)ping掃描的過程詳解
這篇文章主要介紹了python使用scapy模塊實現(xiàn)ping掃描的過程詳解,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價值,需要的朋友可以參考下2021-01-01