亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Python反爬蟲偽裝瀏覽器進(jìn)行爬蟲

 更新時(shí)間:2020年02月28日 13:25:32   作者:Tynam.Yang  
這篇文章主要介紹了Python反爬蟲偽裝瀏覽器進(jìn)行爬蟲,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下

對(duì)于爬蟲中部分網(wǎng)站設(shè)置了請(qǐng)求次數(shù)過(guò)多后會(huì)封殺ip,現(xiàn)在模擬瀏覽器進(jìn)行爬蟲,也就是說(shuō)讓服務(wù)器認(rèn)識(shí)到訪問(wèn)他的是真正的瀏覽器而不是機(jī)器操作

簡(jiǎn)單的直接添加請(qǐng)求頭,將瀏覽器的信息在請(qǐng)求數(shù)據(jù)時(shí)傳入:

打開瀏覽器--打開開發(fā)者模式--請(qǐng)求任意網(wǎng)站

如下圖:找到請(qǐng)求的的名字,打開后查看headers欄,找到User-Agent,復(fù)制。然后添加到請(qǐng)求頭中

代碼如下:

import requests
url = 'https://www.baidu.com'
headers ={
    'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) '
           'Chrome/65.0.3325.181 Safari/537.36'
    }
rq = requests.get(url=url, headers=headers)
print(rq.text)

更深的偽裝瀏覽器,添加多個(gè)瀏覽器信息,每次請(qǐng)求的時(shí)候隨機(jī)發(fā)送瀏覽器信息,讓服務(wù)器了解不是一個(gè)瀏覽器一直在訪問(wèn),(可以百度查找user-agent)

代碼如下:

import requests
import random

url = 'https://www.baidu.com'
headers_lists =(
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) '
           'Chrome/65.0.3325.181 Safari/537.36',
    'Mozilla/4.0(compatible;MSIE7.0;WindowsNT5.1;Maxthon2.0',
    'Opera/9.80(Android2.3.4;Linux;Operamobi/adr-1107051709;U;zh-cn)Presto/2.8.149Version/11.10',
    'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1',
    'Mozilla/5.0(Android;Linuxarmv7l;rv:5.0)Gecko/Firefox/5.0fennec/5.0',)

rq = requests.get(url=url,headers={'User-Agent':random.choice(headers_lists)})
print(rq.text)

完整的請(qǐng)求體解釋:

以下是筆者訪問(wèn)百度的請(qǐng)求體。

Accept:瀏覽器端可以接受的媒體類型

Accept-Encoding:瀏覽器申明自己接收的編碼方法

Accept-Language:瀏覽器申明自己接收的語(yǔ)言

Connection:keep-alive 客戶端和服務(wù)器之間還在連接中,如果關(guān)閉就是close

Host:請(qǐng)求報(bào)頭域主要用于指定被請(qǐng)求資源的Internet主機(jī)和端口號(hào)

User-Agent:使用的操作系統(tǒng)和瀏覽器的名稱和版本

Cookie:是用來(lái)存儲(chǔ)一些用戶信息以便讓服務(wù)器辨別用戶身份的

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論