Python爬蟲實(shí)現(xiàn)搭建代理ip池
前言
在使用爬蟲的時(shí)候,很多網(wǎng)站都有一定的反爬措施,甚至在爬取大量的數(shù)據(jù)或者頻繁地訪問(wèn)該網(wǎng)站多次時(shí)還可能面臨ip被禁,所以這個(gè)時(shí)候我們通常就可以找一些代理ip來(lái)繼續(xù)爬蟲測(cè)試。
下面就開始來(lái)簡(jiǎn)單地介紹一下爬取免費(fèi)的代理ip來(lái)搭建自己的代理ip池:本次爬取免費(fèi)ip代理的網(wǎng)址:http://www.ip3366.net/free/
提示:以下是本篇文章正文內(nèi)容,下面案例可供參考
一、User-Agent
在發(fā)送請(qǐng)求的時(shí)候,通常都會(huì)做一個(gè)簡(jiǎn)單的反爬。這時(shí)可以用fake_useragent模塊來(lái)設(shè)置一個(gè)請(qǐng)求頭,用來(lái)進(jìn)行偽裝成瀏覽器,下面兩種方法都可以。
from fake_useragent import UserAgent headers = { # 'User-Agent': UserAgent().random #常見(jiàn)瀏覽器的請(qǐng)求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 }
二、發(fā)送請(qǐng)求
response = requests.get(url='http://www.ip3366.net/free/', headers=request_header()) # text = response.text.encode('ISO-8859-1') # print(text.decode('gbk'))
三、解析數(shù)據(jù)
我們只需要解析出ip、port即可。
使用xpath解析(個(gè)人很喜歡用)(當(dāng)然還有很多的解析方法,如:正則,css選擇器,BeautifulSoup等等)。
#使用xpath解析,提取出數(shù)據(jù)ip,端口 html = etree.HTML(response.text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #端口 proxy = ip_ + ':' + port_ #115.218.5.5:9000
四、構(gòu)建ip代理池,檢測(cè)ip是否可用
#構(gòu)建代理ip proxy = ip + ':' + port proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設(shè)置timeout,使響應(yīng)等待1s response.close() if response.status_code == 200: print(proxy, '\033[31m可用\033[0m') else: print(proxy, '不可用') except: print(proxy,'請(qǐng)求異常')
五、完整代碼
import requests #導(dǎo)入模塊 from lxml import etree from fake_useragent import UserAgent #簡(jiǎn)單的反爬,設(shè)置一個(gè)請(qǐng)求頭來(lái)偽裝成瀏覽器 def request_header(): headers = { # 'User-Agent': UserAgent().random #常見(jiàn)瀏覽器的請(qǐng)求頭偽裝(如:火狐,谷歌) 'User-Agent': UserAgent().Chrome #谷歌瀏覽器 } return headers ''' 創(chuàng)建兩個(gè)列表用來(lái)存放代理ip ''' all_ip_list = [] #用于存放從網(wǎng)站上抓取到的ip usable_ip_list = [] #用于存放通過(guò)檢測(cè)ip后是否可以使用 #發(fā)送請(qǐng)求,獲得響應(yīng) def send_request(): #爬取7頁(yè),可自行修改 for i in range(1,8): print(f'正在抓取第{i}頁(yè)……') response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header()) text = response.text.encode('ISO-8859-1') # print(text.decode('gbk')) #使用xpath解析,提取出數(shù)據(jù)ip,端口 html = etree.HTML(text) tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr') for td in tr_list: ip_ = td.xpath('./td[1]/text()')[0] #ip port_ = td.xpath('./td[2]/text()')[0] #端口 proxy = ip_ + ':' + port_ #115.218.5.5:9000 all_ip_list.append(proxy) test_ip(proxy) #開始檢測(cè)獲取到的ip是否可以使用 print('抓取完成!') print(f'抓取到的ip個(gè)數(shù)為:{len(all_ip_list)}') print(f'可以使用的ip個(gè)數(shù)為:{len(usable_ip_list)}') print('分別有:\n', usable_ip_list) #檢測(cè)ip是否可以使用 def test_ip(proxy): #構(gòu)建代理ip proxies = { "http": "http://" + proxy, "https": "http://" + proxy, # "http": proxy, # "https": proxy, } try: response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設(shè)置timeout,使響應(yīng)等待1s response.close() if response.status_code == 200: usable_ip_list.append(proxy) print(proxy, '\033[31m可用\033[0m') else: print(proxy, '不可用') except: print(proxy,'請(qǐng)求異常') if __name__ == '__main__': send_request()
總結(jié)
到此這篇關(guān)于Python爬蟲實(shí)現(xiàn)搭建代理ip池的文章就介紹到這了,更多相關(guān)Python代理ip池內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python 經(jīng)典面試題 21 道【不可錯(cuò)過(guò)】
這篇文章主要介紹了Python 經(jīng)典面試題 21 道,在python面試過(guò)程中這21道是經(jīng)常被問(wèn)到了,感興趣的朋友跟隨小編一起看看吧2018-09-09Python語(yǔ)言的12個(gè)基礎(chǔ)知識(shí)點(diǎn)小結(jié)
這篇文章主要介紹了Python語(yǔ)言的12個(gè)基礎(chǔ)知識(shí)點(diǎn)小結(jié),包含正則表達(dá)式替換、遍歷目錄方法、列表按列排序、去重、字典排序等,需要的朋友可以參考下2014-07-07Python實(shí)現(xiàn)自動(dòng)添加腳本頭信息的示例代碼
這篇文章給大家介紹的一段腳本是自動(dòng)添加注釋信息的腳本,添加的信息包括腳本名稱、作者和時(shí)間等之類的,對(duì)于團(tuán)隊(duì)形成統(tǒng)一的編碼規(guī)則很有幫助。有需要的可以參考借鑒。2016-09-09Python搭建自己IP代理池的方法實(shí)現(xiàn)
本文主要介紹了Python搭建自己IP代理池的方法實(shí)現(xiàn),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2023-02-02使用python+requests+pytest實(shí)現(xiàn)接口自動(dòng)化
這篇文章主要介紹了使用python+requests+pytest實(shí)現(xiàn)接口自動(dòng)化,在當(dāng)前互聯(lián)網(wǎng)產(chǎn)品迭代頻繁的背景下,回歸測(cè)試的時(shí)間越來(lái)越少,但接口自動(dòng)化測(cè)試因其實(shí)現(xiàn)簡(jiǎn)單、維護(hù)成本低,容易提高覆蓋率等特點(diǎn),越來(lái)越受重視,需要的朋友可以參考下2023-08-08python3利用Dlib19.7實(shí)現(xiàn)人臉68個(gè)特征點(diǎn)標(biāo)定
這篇文章主要為大家詳細(xì)介紹了python3利用Dlib19.7實(shí)現(xiàn)人臉68個(gè)特征點(diǎn)標(biāo)定,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-02-02Python實(shí)現(xiàn)將SQLite中的數(shù)據(jù)直接輸出為CVS的方法示例
這篇文章主要介紹了Python實(shí)現(xiàn)將SQLite中的數(shù)據(jù)直接輸出為CVS的方法,涉及Python連接、讀取SQLite數(shù)據(jù)庫(kù)及轉(zhuǎn)換CVS格式數(shù)據(jù)的相關(guān)操作技巧,需要的朋友可以參考下2017-07-07Python實(shí)現(xiàn)導(dǎo)彈自動(dòng)追蹤代碼實(shí)例
這篇文章主要介紹了Python實(shí)現(xiàn)導(dǎo)彈自動(dòng)追蹤代碼實(shí)例,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2022-11-11python?DataFrame中stack()方法、unstack()方法和pivot()方法淺析
這篇文章主要給大家介紹了關(guān)于python?DataFrame中stack()方法、unstack()方法和pivot()方法的相關(guān)資料,pandas中這三種方法都是用來(lái)對(duì)表格進(jìn)行重排的,其中stack()是unstack()的逆操作,需要的朋友可以參考下2022-04-04