python正則爬取某段子網(wǎng)站前20頁(yè)段子(request庫(kù))過(guò)程解析
首先還是谷歌瀏覽器抓包對(duì)該網(wǎng)站數(shù)據(jù)進(jìn)行分析,結(jié)果如下:
該網(wǎng)站地址:http://www.budejie.com/text
該網(wǎng)站數(shù)據(jù)都是通過(guò)html頁(yè)面進(jìn)行展示,網(wǎng)站url默認(rèn)為第一頁(yè),http://www.budejie.com/text/2為第二頁(yè),以此類推
對(duì)網(wǎng)站的內(nèi)容段子所處位置進(jìn)行分析,發(fā)現(xiàn)段子內(nèi)容都是在一個(gè) a 標(biāo)簽中
坑還是有的,這是我第一次寫的正則:
content_list = re.findall(r'<a href="/detail-.*" rel="external nofollow" rel="external nofollow" rel="external nofollow" >(.+?)</a>', html_str)
之后發(fā)現(xiàn)竟然匹配到了一些推薦的內(nèi)容,最后我把正則改變下面這樣,發(fā)現(xiàn)沒(méi)有問(wèn)題了,關(guān)于正則的知識(shí)這里就不做過(guò)多解釋了
content_list = re.findall(r'<div class="j-r-list-c-desc">\s*<a href="/detail-.*" rel="external nofollow" rel="external nofollow" rel="external nofollow" >(.+?)</a>', html_str)
現(xiàn)在要的是爬取前20頁(yè)的段子并保存到本地,已經(jīng)知道翻頁(yè)的規(guī)律和匹配內(nèi)容的正則,就直接可以寫代碼了
代碼如下,整體思路還是和前兩排爬蟲博客一樣,面向?qū)ο蟮膶懛ǎ?/strong>
import requests import re import json class NeihanSpider(object): """內(nèi)涵段子,百思不得其姐,正則爬取一頁(yè)的數(shù)據(jù)""" def __init__(self): self.temp_url = 'http://www.budejie.com/text/{}' # 網(wǎng)站地址,給頁(yè)碼留個(gè)可替換的{} self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36', } def pass_url(self, url): # 發(fā)送請(qǐng)求,獲取響應(yīng) print(url) response = requests.get(url, headers=self.headers) return response.content.decode() def get_first_page_content_list(self, html_str): # 提取第一頁(yè)的數(shù)據(jù) content_list = re.findall(r'<div class="j-r-list-c-desc">\s*<a href="/detail-.*" rel="external nofollow" rel="external nofollow" rel="external nofollow" >(.+?)</a>', html_str) # 非貪婪匹配 return content_list def save_content_list(self, content_list): with open('neihan.txt', 'a', encoding='utf-8') as f: for content in content_list: f.write(json.dumps(content, ensure_ascii=False)) f.write('\n') # 換行 print('成功保存一頁(yè)!') def run(self): # 實(shí)現(xiàn)主要邏輯 for i in range(20): # 只爬取前20頁(yè)數(shù)據(jù) # 1. 構(gòu)造url # 2. 發(fā)送請(qǐng)求,獲取響應(yīng) html_str = self.pass_url(self.temp_url.format(i+1)) # 3. 提取數(shù)據(jù) content_list = self.get_first_page_content_list(html_str) # 4. 保存 self.save_content_list(content_list) if __name__ == '__main__': neihan = NeihanSpider() neihan.run()
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python日期和時(shí)間戳的轉(zhuǎn)換的實(shí)現(xiàn)方式
Python中日期和時(shí)間的處理涉及到time和datetime模塊,time模塊可實(shí)現(xiàn)時(shí)間戳與格式化時(shí)間字符串的轉(zhuǎn)換,而datetime模塊則提供更加直接易用的接口,本文詳細(xì)給大家介紹了Python日期和時(shí)間戳的轉(zhuǎn)換的實(shí)現(xiàn)方式,需要的朋友可以參考下2024-10-10Python-Seaborn熱圖繪制的實(shí)現(xiàn)方法
這篇文章主要介紹了Python-Seaborn熱圖繪制的實(shí)現(xiàn)方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-07-07python如何查看系統(tǒng)網(wǎng)絡(luò)流量的信息
這篇文章給大家介紹了如何了利用Python查看系統(tǒng)網(wǎng)絡(luò)流量的信息,有需要的朋友們可以參考借鑒。下面來(lái)一起看看吧。2016-09-09Python 實(shí)現(xiàn)簡(jiǎn)單的shell sed替換功能(實(shí)例講解)
下面小編就為大家?guī)?lái)一篇Python 實(shí)現(xiàn)簡(jiǎn)單的shell sed替換功能(實(shí)例講解)。小編覺(jué)得挺不錯(cuò)的,現(xiàn)在就分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧2017-09-09Anaconda+vscode+pytorch環(huán)境搭建過(guò)程詳解
這篇文章主要介紹了Anaconda+vscode+pytorch環(huán)境搭建過(guò)程詳解,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-05-05