Python 用Redis簡(jiǎn)單實(shí)現(xiàn)分布式爬蟲的方法
Redis通常被認(rèn)為是一種持久化的存儲(chǔ)器關(guān)鍵字-值型存儲(chǔ),可以用于幾臺(tái)機(jī)子之間的數(shù)據(jù)共享平臺(tái)。
連接數(shù)據(jù)庫(kù)
注意:假設(shè)現(xiàn)有幾臺(tái)在同一局域網(wǎng)內(nèi)的機(jī)器分別為Master和幾個(gè)Slaver
Master連接時(shí)host為localhost即本機(jī)的ip
_db = redis.Reds(host='localhost', port=6379, db=0)
Slaver連接時(shí)的host也為Master的ip,端口port和數(shù)據(jù)庫(kù)db不寫時(shí)為默認(rèn)值6379、0
_db = redis.Redis(host='192.168.235.80')
Redis含列表、集合,字符串等幾種數(shù)據(jù)結(jié)構(gòu),具體詳細(xì)的幾種數(shù)據(jù)結(jié)構(gòu)的操作命令可查看Redis官網(wǎng)http://redis.io/commands,下面是對(duì)集合進(jìn)行操作的一些命令
_db.sadd(key, *values) # 插入指定values到集合中并返回新插入的的值的數(shù)量 _db.spop(self.key) # 隨機(jī)從集合中的得到一個(gè)元素將其從集合中刪除并作為返回值返回 _db.smembers(self.key) # 返回集合的所有元素 _db.delete(key) # 刪除整個(gè)集合, 成功返回1, 失敗返回0 _db.srandmember(self.key) # 從集合中隨機(jī)選取一個(gè)元素作為返回 _db.sismember(self.key, value) # 判斷指定value是否在本集合中,成功返回1,失敗返回0
例如,Master可利用redis將url上傳到數(shù)據(jù)庫(kù)
for i in range(20): # 將需爬取的糗事百科前20頁(yè)的url并存入urls集合 url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1) _db.sadd('urls', url) # 將url插入關(guān)鍵字urls集合中,若url已存在則不再插入
進(jìn)而Master和Slaver可從數(shù)據(jù)庫(kù)里獲取url
url = _db.spop('urls') # 隨機(jī)從urls集合中取出一個(gè)url返回并將其刪去
同理,Master可利用上面的方法將其他一些共用的資源上傳到數(shù)據(jù)庫(kù),Slaver就可從數(shù)據(jù)庫(kù)下載需要的東西。下面是一個(gè)完整的例子
# coding=utf-8 import urllib2 import re import time import redis headers = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Ubuntu Chromium/49.0.2623.108 Chrome/49.0.2623.108 Safari/537.36'} job_redis = redis.Redis(host='192.168.235.80') # host為主機(jī)的IP,port和db為默認(rèn)值 class Clawer(object): identity = 'master' # 或slaver def __init__(self): if self.identity == 'master': for i in range(20): # 將需爬取的糗事百科前20頁(yè)的url并存入urls集合 url = 'http://www.qiushibaike.com/hot/page/%d/' % (i + 1) job_redis.sadd('urls', url) self.main() def get_content(self): """ 從糗事百科中獲取故事 :return: 故事列表 """ stories = [] content_pattern = re.compile('<div class="content">([\w\W]*?)</div>([\w\W]*?)class="stats"') # 匹配故事內(nèi)容(第一空)和是否含有圖片(第二空)的模板 pattern = re.compile('<.*?>') # 匹配包括括號(hào)及括號(hào)內(nèi)無(wú)關(guān)內(nèi)容的模板 url = job_redis.spop('urls') while url: # 當(dāng)數(shù)據(jù)庫(kù)還存在網(wǎng)頁(yè)url,取出一個(gè)并爬取 try: request = urllib2.Request(url, headers=headers) response = urllib2.urlopen(request) text = response.read() except urllib2.URLError, e: # 若出現(xiàn)網(wǎng)頁(yè)讀取錯(cuò)誤捕獲并輸出 if hasattr(e, "reason"): print e.reason content = re.findall(content_pattern, text) # 獲取含模板內(nèi)容的列表 for x in content: if "img" not in x[1]: # 過濾含圖片的故事 x = re.sub(pattern, '', x[0]) x = re.sub('\n', '', x) stories.append(x) url = job_redis.spop('urls') time.sleep(3) return stories def main(self): self.get_content() if __name__ == '__main__': Clawer()
將此代碼在幾臺(tái)機(jī)器同時(shí)運(yùn)行,調(diào)節(jié)其身份為master或slaver,做到簡(jiǎn)單的分布式爬蟲
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
精心整理總結(jié)的Python自動(dòng)化測(cè)試面試題
簡(jiǎn)單來說,自動(dòng)化測(cè)試框架包含了所有的測(cè)試工作所需的測(cè)試框架,下面這篇文章主要給大家介紹了關(guān)于Python自動(dòng)化測(cè)試面試題的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2023-02-02python中對(duì)正則表達(dá)式re包的簡(jiǎn)單引用方式
這篇文章主要介紹了python中對(duì)正則表達(dá)式re包的簡(jiǎn)單引用方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-02-02Python接口自動(dòng)化淺析登錄接口測(cè)試實(shí)戰(zhàn)
本文主要接好了python接口自動(dòng)化的接口概念、接口用例設(shè)計(jì)及登錄,跟隨本文章來進(jìn)行一個(gè)接口用例設(shè)計(jì)及登錄接口測(cè)試實(shí)戰(zhàn),有需要的朋友可以參考下2021-08-08