Python爬蟲爬取、解析數(shù)據(jù)操作示例
本文實(shí)例講述了Python爬蟲爬取、解析數(shù)據(jù)操作。分享給大家供大家參考,具體如下:
爬蟲 當(dāng)當(dāng)網(wǎng) http://search.dangdang.com/?key=python&act=input&page_index=1
- 獲取書籍相關(guān)信息
- 面向?qū)ο笏枷?/li>
- 利用不同解析方式和存儲(chǔ)方式
引用相關(guān)庫(kù)
import requests import re import csv import pymysql from bs4 import BeautifulSoup from lxml import etree import lxml from lxml import html
類代碼實(shí)現(xiàn)部分
class DDSpider(object): #對(duì)象屬性 參數(shù) 關(guān)鍵字 頁(yè)數(shù) def __init__(self,key='python',page=1): self.url = 'http://search.dangdang.com/?key='+key+'&act=input&page_index={}' self.page = page self.headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36'} #私有對(duì)象方法 def __my_url(self): my_url = [] if self.page < 1: my_page = 2 else: my_page = self.page+1 #循環(huán)遍歷每一頁(yè) for i in range(1,my_page): my_url.append(self.url.format(i)) return my_url #私有對(duì)象方法 請(qǐng)求數(shù)據(jù) def __my_request(self,url,parser_type): #循環(huán)遍歷每一頁(yè) response = requests.get(url=url,headers=self.headers) if response.status_code == 200: return self.__my_parser(response.text,parser_type) else: return None #私有對(duì)象方法 解析數(shù)據(jù) 1 利用正則 2 bs4 3 xpath def __my_parser(self,html,my_type=1): if my_type == 1: pattern = re.compile('<p.*?class=[\'\"]name[\'\"].*?name=[\'\"]title[\'\"].*?<a.*?title=[\'\"](.*?)[\'\"].*?href=[\'\"](.*?)[\'\"].*?name=[\'\"]itemlist-title[\'\"].*?<p class=[\'\"]detail[\'\"].*?>(.*?)</p>.*?<span.*?class=[\'\"]search_now_price[\'\"].*?>(.*?)</span>.*?<p.*?class=[\'\"]search_book_author[\'\"].*?><span>.*?<a.*?name=[\'\"]itemlist-author[\'\"].*?title=[\'\"](.*?)[\'\"].*?</span>',re.S) result = re.findall(pattern,html) elif my_type == 2: soup = BeautifulSoup(html,'lxml') result = [] title_url = soup.find_all('a',attrs={'name':'itemlist-title'}) for i in range(0,len(title_url)): title = soup.find_all('a',attrs={'name':'itemlist-title'})[i].attrs['title'] url = soup.find_all('a',attrs={'name':'itemlist-title'})[i].attrs['href'] price = soup.find_all('span',attrs={'class':'search_now_price'})[i].get_text() author = soup.find_all('a',attrs={'name':'itemlist-author'})[i].attrs['title'] desc = soup.find_all('p',attrs={'class':'detail'})[i].get_text() my_tuple = (title,url,desc,price,author) result.append(my_tuple) else: html = etree.HTML(html) li_all = html.xpath('//div[@id="search_nature_rg"]/ul/li') result = [] for i in range(len(li_all)): title = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="name"]/a/@title'.format(i+1)) url = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="name"]/a/@href'.format(i+1)) price = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]//span[@class="search_now_price"]/text()'.format(i+1)) author_num = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/a'.format(i+1)) if len(author_num) != 0: #有作者 a標(biāo)簽 author = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/a[1]/@title'.format(i+1)) else: #沒(méi)有作者 a標(biāo)簽 author = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="search_book_author"]/span[1]/text()'.format(i+1)) desc = html.xpath('//div[@id="search_nature_rg"]/ul/li[{}]/p[@class="detail"]/text()'.format(i+1)) my_tuple = (" ".join(title)," ".join(url)," ".join(desc)," ".join(price)," ".join(author)) result.append(my_tuple) return result #私有對(duì)象方法 存儲(chǔ)數(shù)據(jù) 1 txt 2 csv 3 mysql def __my_save(self,data,save_type=1): #循環(huán)遍歷 for value in data: if save_type == 1: with open('ddw.txt','a+',encoding="utf-8") as f: f.write('【名稱】:{}【作者】:{}【價(jià)格】:{}【簡(jiǎn)介】:{}【鏈接】:{}'.format(value[0],value[4],value[3],value[2],value[1])) elif save_type == 2: with open('ddw.csv','a+',newline='',encoding='utf-8-sig') as f: writer = csv.writer(f) #轉(zhuǎn)化為列表 存儲(chǔ) writer.writerow(list(value)) else: conn = pymysql.connect(host='127.0.0.1',user='root',passwd='',db='',port=3306,charset='utf8') cursor = conn.cursor() sql = '' cursor.execute(sql) conn.commit() cursor.close() conn.close() #公有對(duì)象方法 執(zhí)行所有爬蟲操作 def my_run(self,parser_type=1,save_type=1): my_url = self.__my_url() for value in my_url: result = self.__my_request(value,parser_type) self.__my_save(result,save_type)
調(diào)用爬蟲類實(shí)現(xiàn)數(shù)據(jù)獲取
if __name__ == '__main__': #實(shí)例化創(chuàng)建對(duì)象 dd = DDSpider('python',0) #參數(shù) 解析方式 my_run(parser_type,save_type) # parser_type 1 利用正則 2 bs4 3 xpath #存儲(chǔ)方式 save_type 1 txt 2 csv 3 mysql dd.my_run(2,1)
==總結(jié)一下: ==
1. 總體感覺(jué)正則表達(dá)式更簡(jiǎn)便一些 , 代碼也會(huì)更簡(jiǎn)便 , 但是正則部分相對(duì)復(fù)雜和困難
2. bs4和xpath 需要對(duì)html代碼有一定了解 , 取每條數(shù)據(jù)多個(gè)值時(shí)相對(duì)較繁瑣
更多關(guān)于Python相關(guān)內(nèi)容可查看本站專題:《Python Socket編程技巧總結(jié)》、《Python正則表達(dá)式用法總結(jié)》、《Python數(shù)據(jù)結(jié)構(gòu)與算法教程》、《Python函數(shù)使用技巧總結(jié)》、《Python字符串操作技巧匯總》、《Python入門與進(jìn)階經(jīng)典教程》及《Python文件與目錄操作技巧匯總》
希望本文所述對(duì)大家Python程序設(shè)計(jì)有所幫助。
相關(guān)文章
Scrapy爬蟲多線程導(dǎo)致抓取錯(cuò)亂的問(wèn)題解決
本文針對(duì)Scrapy爬蟲多線程導(dǎo)致抓取錯(cuò)亂的問(wèn)題進(jìn)行了深入分析,并提出了相應(yīng)的解決方案,具有一定的參考價(jià)值,感興趣的可以了解一下2023-11-11Python實(shí)現(xiàn)打包成庫(kù)供別的模塊調(diào)用
這篇文章主要介紹了Python實(shí)現(xiàn)打包成庫(kù)供別的模塊調(diào)用,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-07-07Python3之亂碼\xe6\x97\xa0\xe6\xb3\x95處理方式
這篇文章主要介紹了Python3之亂碼\xe6\x97\xa0\xe6\xb3\x95處理方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2020-05-05pytz格式化北京時(shí)間多出6分鐘問(wèn)題的解決方法
這篇文章主要給大家介紹了關(guān)于pytz格式化北京時(shí)間多出6分鐘問(wèn)題的解決方法,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用Python具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2019-06-06python 類的繼承 實(shí)例方法.靜態(tài)方法.類方法的代碼解析
這篇文章主要介紹了python 類的繼承 實(shí)例方法.靜態(tài)方法.類方法的代碼解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2019-08-08