python網(wǎng)絡(luò)爬蟲基于selenium爬取斗魚直播信息
一、本文使用的第三方包和工具
python 3.8
谷歌瀏覽器
selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同
瀏覽器驅(qū)動(dòng)(和你的瀏覽器版本對(duì)應(yīng))
二、selenium的介紹和瀏覽器驅(qū)動(dòng)的安裝
1.selenium的介紹
selenium是一款web自動(dòng)化測(cè)試工具,可以很方便地模擬真實(shí)用戶對(duì)瀏覽器進(jìn)行操作,它支持各種主流瀏覽器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web測(cè)試或者爬蟲,自動(dòng)搶票、自動(dòng)下單也可以用selenium來做。
2.瀏覽器驅(qū)動(dòng)的安裝
網(wǎng)上方法很多,友友們自行搜索,在這里提一點(diǎn)注意事項(xiàng):本文用的是谷歌瀏覽器,瀏覽器驅(qū)動(dòng)要對(duì)應(yīng)谷歌的哦,注意瀏覽器驅(qū)動(dòng)與你的瀏覽器版本相對(duì)應(yīng),這里給出谷歌瀏覽器驅(qū)動(dòng)的下載地址,友友們按照自己瀏覽器的版本對(duì)應(yīng)現(xiàn)在即可
http://chromedriver.storage.googleapis.com/index.html
下載完成后注意配置環(huán)境變量哦,不配置也行,不配置就要在代碼中寫上你的Chromedriver.exe文件的路徑或者不寫路徑將你的Chromedriver.exe和py文件放到同一目錄下也可以哦
三、代碼思路分析
進(jìn)入斗魚官網(wǎng),點(diǎn)到直播,下面的在線直播信息就是我們需要爬取的?
可以看到有標(biāo)題,類型,姓名,以及熱度,我們爬取這四個(gè)字段就行
然后滑到底部,這里的下一頁是我們控制爬取頁數(shù)的?
注意:當(dāng)我們進(jìn)入頁面時(shí),雖然有滾動(dòng)條,但所有直播信息已經(jīng)加載好,并不是通過滑動(dòng)然后Ajax加載的,所以在代碼中并不需要寫滑動(dòng),直接提取就可以拿到整個(gè)頁面的數(shù)據(jù)。
1.解析數(shù)據(jù)的函數(shù)
#解析數(shù)據(jù)的函數(shù) def parse(self): #強(qiáng)制等待兩秒,等待頁面數(shù)據(jù)加載完畢 sleep(2) li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li') #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text data_list.append(dic_data) return data_list
2.保存數(shù)據(jù)的函數(shù)
#解析數(shù)據(jù)的函數(shù) def parse(self): #強(qiáng)制等待兩秒,等待頁面數(shù)據(jù)加載完畢 sleep(2) li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li') #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text data_list.append(dic_data) return data_list
(1)保存為txt文本
#保存數(shù)據(jù)的函數(shù) def save_data(self,data_list,i): #在當(dāng)前目錄下將數(shù)據(jù)存為txt文件 with open('./douyu.txt','w',encoding='utf-8') as fp: for data in data_list: data = str(data) fp.write(data+'\n') print("第%d頁保存完成!" % i)
(2)保存為json文件
#保存數(shù)據(jù)的函數(shù) def save_data(self,data_list,i): with open('./douyu.json','w',encoding='utf-8') as fp: #里面有中文,所以注意ensure_ascii=False data = json.dumps(data_list,ensure_ascii=False) fp.write(data) print("第%d頁保存完成!" % i)
3.主函數(shù)設(shè)計(jì)
#主函數(shù) def run(self): #輸入要爬取的頁數(shù),如果輸入負(fù)整數(shù),轉(zhuǎn)化成她的絕對(duì)值 page_num = abs(int(input("請(qǐng)輸入你要爬取的頁數(shù):"))) #初始化頁數(shù)為1 i = 1 #判斷輸入的數(shù)是否為整數(shù) if isinstance(page_num,int): #實(shí)例化瀏覽器對(duì)象 self.bro = webdriver.Chrome(executable_path='../../可執(zhí)行文件/chromedriver.exe') # chromedriver.exe如果已添加到環(huán)境變量,可省略executable_path='../../可執(zhí)行文件/chromedriver.exe' self.bro.get(self.url) while i <= page_num: #調(diào)用解析函數(shù) data_list = self.parse() #調(diào)用保存函數(shù) self.save_data(data_list,i) try: #定位包含“下一頁”字段的按鈕并點(diǎn)擊 button = self.bro.find_element_by_xpath('//span[contains(text(),"下一頁")]') button.click() i += 1 except: break self.bro.quit() else: print("輸入格式錯(cuò)誤!")
四、完整代碼
from selenium import webdriver from time import sleep import json #創(chuàng)建一個(gè)類 class Douyu(): def __init__(self): self.url = 'https://www.douyu.com/directory/all' #解析數(shù)據(jù)的函數(shù) def parse(self): #強(qiáng)制等待兩秒,等待頁面數(shù)據(jù)加載完畢 sleep(2) li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li') #print(len(li_list)) data_list = [] for li in li_list: dic_data = {} dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h3').text dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h2/div').text dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text data_list.append(dic_data) return data_list #保存數(shù)據(jù)的函數(shù) def save_data(self,data_list,i): #在當(dāng)前目錄下將數(shù)據(jù)存為txt文件 with open('./douyu.txt','w',encoding='utf-8') as fp: for data in data_list: data = str(data) fp.write(data+'\n') print("第%d頁保存完成!" % i) # json文件的存法 # with open('./douyu.json','w',encoding='utf-8') as fp: # 里面有中文,所以注意ensure_ascii=False # data = json.dumps(data_list,ensure_ascii=False) # fp.write(data) # print("第%d頁保存完成!" % i) #主函數(shù) def run(self): #輸入要爬取的頁數(shù),如果輸入負(fù)整數(shù),轉(zhuǎn)化成她的絕對(duì)值 page_num = abs(int(input("請(qǐng)輸入你要爬取的頁數(shù):"))) #初始化頁數(shù)為1 i = 1 #判斷輸入的數(shù)是否為整數(shù) if isinstance(page_num,int): #實(shí)例化瀏覽器對(duì)象 self.bro = webdriver.Chrome(executable_path='../../可執(zhí)行文件/chromedriver.exe') # chromedriver.exe如果已添加到環(huán)境變量,可省略executable_path='../../可執(zhí)行文件/chromedriver.exe' self.bro.get(self.url) while i <= page_num: #調(diào)用解析函數(shù) data_list = self.parse() #調(diào)用保存函數(shù) self.save_data(data_list,i) try: #定位包含“下一頁”字段的按鈕并點(diǎn)擊 button = self.bro.find_element_by_xpath('//span[contains(text(),"下一頁")]') button.click() i += 1 except: break self.bro.quit() else: print("輸入格式錯(cuò)誤!") if __name__ == '__main__': douyu = Douyu() douyu.run()
總結(jié)
本文是為了練習(xí)selenium而寫的,由于一個(gè)頁面有120條數(shù)據(jù),所以采集效率較低,感興趣的小伙伴們可以試一試requests庫寫,爬取速度更快哦!希望大家以后多多支持腳本之家!
相關(guān)文章
python+pywinauto+lackey實(shí)現(xiàn)PC端exe自動(dòng)化的示例代碼
這篇文章主要介紹了python+pywinauto+lackey實(shí)現(xiàn)PC端exe自動(dòng)化的示例代碼,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-04-04Python日志打印里logging.getLogger源碼分析詳解
在本篇文章里小編給大家整理的是一篇關(guān)于Python logging.getLogger源碼分析的相關(guān)內(nèi)容,有興趣的朋友們可以學(xué)習(xí)參考下。2021-01-01運(yùn)籌學(xué)-Python實(shí)現(xiàn)圖論與最短距離
需要求解任意兩個(gè)節(jié)點(diǎn)之間的最短距離,使用?Floyd?算法,只要求解單源最短路徑問題,有負(fù)權(quán)邊時(shí)使用?Bellman-Ford?算法,沒有負(fù)權(quán)邊時(shí)使用?Dijkstra?算法,本節(jié)我們只討論Dijkstra?算法,需要的朋友可以參考一下2022-01-01