python爬取百度貼吧前1000頁內(nèi)容(requests庫面向?qū)ο笏枷雽崿F(xiàn))
更新時間:2019年08月10日 14:49:25 作者:springionic
這篇文章主要介紹了python爬取百度貼吧前1000頁內(nèi)容(requests庫面向?qū)ο笏枷雽崿F(xiàn)),文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下
此程序以李毅吧為例子,以面向?qū)ο蟮脑O(shè)計思想實現(xiàn)爬取保存網(wǎng)頁數(shù)據(jù),暫時并未用到并發(fā)處理,以后有機會的話會加以改善
- 首先去百度貼吧分析貼吧地址欄中url后的參數(shù),找到分頁對應(yīng)的參數(shù)pn,貼吧名字對應(yīng)的參數(shù)kw
- 首先創(chuàng)建類,寫好__init__方法,run方法,__init__方法里先可以直接寫pass
- run方法里大概整理一下整體的思路
- 構(gòu)造 url 列表,因為要爬取1000頁,每頁需對應(yīng)一個url
- 遍歷發(fā)送請求,獲取響應(yīng)
- 保存
- 將可封裝的步驟封裝到單獨的方法,所以這里又增加了三個方法
- get_url_list方法可以返回需要訪問的所有url的一個列表
- parse_url方法用來發(fā)送請求獲取響應(yīng),最終返回html頁面內(nèi)容
- save_html方法用來保存html字符串
- run方法為核心實現(xiàn),將三個方法和用到的參數(shù)結(jié)合起來
- 每當(dāng)有用到的參數(shù),可以在__init__方法里添加對應(yīng)的實例屬性
- 最后,實例化類,測試,會不斷的向當(dāng)前目錄保存html文件
import requests class TiebaSpider(object): def __init__(self, tieba_name): # tieba_name為要爬取貼吧的名稱 self.tieba_name = tieba_name self.url_temp = 'https://tieba.baidu.com/f?kw=' + tieba_name + '&ie=utf-8&pn={}' self.headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.100 Safari/537.36', } def get_url_list(self): # 構(gòu)造url列表 # url_list = [] # for i in range(1000): # url_list.append(self.url_temp.format(i * 50)) # return url_list return [self.url_temp.format(i*50) for i in range(1000)] # 列表推導(dǎo)式替換上面代碼 def parse_url(self, url): # 發(fā)送請求,獲取響應(yīng) print(url) response = requests.get(url, headers=self.headers) return response.content.decode() def save_html(self, html_str, page_num): # 保存html字符串 file_path = '{}-第{}頁.html'.format(self.tieba_name, page_num) with open(file_path, 'w', encoding='utf-8') as f: # 樣例: 李毅-第一頁.html f.write(html_str) def run(self): # 實現(xiàn)主要邏輯 # 1.構(gòu)造url列表 url_list = self.get_url_list() # 2.遍歷,發(fā)送請求,獲取響應(yīng) for url in url_list: html_str = self.parse_url(url) # 3.保存 page_num = url_list.index(url) + 1 # 頁碼數(shù) self.save_html(html_str, page_num) if __name__ == '__main__': tieba_spider = TiebaSpider('李毅') tieba_spider.run()
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
您可能感興趣的文章:
- 使用Python爬蟲庫requests發(fā)送表單數(shù)據(jù)和JSON數(shù)據(jù)
- Python爬蟲庫requests獲取響應(yīng)內(nèi)容、響應(yīng)狀態(tài)碼、響應(yīng)頭
- 使用Python爬蟲庫requests發(fā)送請求、傳遞URL參數(shù)、定制headers
- python3 requests庫實現(xiàn)多圖片爬取教程
- python3 requests庫文件上傳與下載實現(xiàn)詳解
- python requests庫爬取豆瓣電視劇數(shù)據(jù)并保存到本地詳解
- Python基于requests庫爬取網(wǎng)站信息
相關(guān)文章
解決keras+flask模型的重復(fù)調(diào)用出錯ValueError: Tensor is n
這篇文章主要介紹了解決keras+flask模型的重復(fù)調(diào)用出錯ValueError: Tensor is not an element of this graph問題,具有很好的參考價值,希望對大家有所幫助,如有錯誤或未考慮完全的地方,望不吝賜教2024-01-01pyspark創(chuàng)建DataFrame的幾種方法
為了便于操作,使用pyspark時我們通常將數(shù)據(jù)轉(zhuǎn)為DataFrame的形式來完成清洗和分析動作。那么你知道pyspark創(chuàng)建DataFrame有幾種方法嗎,下面就一起來了解一下2021-05-05一個月入門Python爬蟲學(xué)習(xí),輕松爬取大規(guī)模數(shù)據(jù)
利用爬蟲我們可以獲取大量的價值數(shù)據(jù),從而獲得感性認識中不能得到的信息,這篇文章給大家?guī)砹艘粋€月入門Python學(xué)習(xí),爬蟲輕松爬取大規(guī)模數(shù)據(jù),感興趣的朋友一起看看吧2018-01-01