Python?頁面解析Beautiful?Soup庫的使用方法
1.Beautiful Soup庫簡介
Beautiful Soup 簡稱 BS4(其中 4 表示版本號)是一個 Python 中常用的頁面解析庫,它可以從 HTML 或 XML 文檔中快速地提取指定的數(shù)據(jù)。
相比于之前講過的
lxml
庫,Beautiful Soup 更加簡單易用,不像正則和 XPath 需要刻意去記住很多特定語法,盡管那樣會效率更高更直接。
對大多數(shù) Python 使用者來說,好用會比高效更重要。
Beautiful Soup庫為第三方庫,需要我們通過
pip
命令安裝:
pip install bs4
BS4 解析頁面時需要依賴文檔解析器,所以還需要一個文檔解析器。
Python 自帶了一個文檔解析庫html.parser
, 但是其解析速度稍慢,所以我們結(jié)合上篇內(nèi)容(Python 文檔解析:lxml庫的使用),安裝lxml
作為文檔解析庫:
pip install lxml
2.Beautiful Soup庫方法介紹
使用 bs4 的初始化操作,是用文本創(chuàng)建一個
BeautifulSoup
對象,并指定文檔解析器:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') # prettify()用于格式化輸出HTML/XML文檔 print(soup.prettify())
bs4 提供了
find_all()
與find()
兩個常用的查找方法它們的用法如下:
2.1 find_all()
find_all()
方法用來搜索當前tag
的所有子節(jié)點,并判斷這些節(jié)點是否符合過濾條件,最后以列表形式將符合條件的內(nèi)容返回,語法格式如下:
find_all(name, attrs, recursive, text, limit)
參數(shù)說明:
name:查找所有名字為 name 的 tag 標簽,字符串對象會被自動忽略。attrs:按照屬性名和屬性值搜索 tag 標簽,注意由于 class 是 Python 的關(guān)鍵字,所以要使用 “class_”。recursive:find_all() 會搜索 tag 的所有子孫節(jié)點,設(shè)置 recursive=False 可以只搜索 tag 的直接子節(jié)點。text:用來搜文檔中的字符串內(nèi)容,該參數(shù)可以接受字符串 、正則表達式 、列表、True。limit:由于 find_all() 會返回所有的搜索結(jié)果,這樣會影響執(zhí)行效率,通過 limit 參數(shù)可以限制返回結(jié)果的數(shù)量。
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') print(soup.find_all("li")) print(soup.find_all("a")) print(soup.find_all(text="Python"))
上面程序使用
find_all()
方法,來查找頁面中所有的<li></li>
標簽、<a></a>
標簽和"Python"
字符串內(nèi)容。
2.2 find()
find()
方法與find_all()
方法極其相似,不同之處在于find()
僅返回第一個符合條件的結(jié)果,因此find()
方法也沒有limit
參數(shù),語法格式如下:
find(name, attrs, recursive, text)
除了和
find_all()
相同的使用方式以外,bs4 為find()
方法提供了一種簡寫方式:
soup.find("li") soup.li
這兩行代碼的功能相同,都是返回第一個
<li></li>
標簽,完整程序:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') print(soup.li) print(soup.a)
上面的程序會打印出第一個
<li></li>
標簽和第一個<a></a>
標簽。
2.3 select()
bs4 支持大部分的 CSS 選擇器,比如常見的標簽選擇器、類選擇器、id 選擇器,以及層級選擇器。Beautiful Soup 提供了一個
select()
方法,通過向該方法中添加選擇器,就可以在 HTML 文檔中搜索到與之對應(yīng)的內(nèi)容。
應(yīng)用如下:
from bs4 import BeautifulSoup html_str = ''' <div> <ul> <li class="web" id="web0"><a href="www.python.org" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Python</a></li> <li class="web" id="web1"><a href="www.java.com" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >Java</a></li> <li class="web" id="web2"><a href="www.csdn.net" rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >CSDN</a></li> </ul> </div> ''' soup = BeautifulSoup(html_str, 'lxml') #根據(jù)元素標簽查找 print(soup.select('body')) #根據(jù)屬性選擇器查找 print(soup.select('a[href]')) #根據(jù)類查找 print(soup.select('.web')) #后代節(jié)點查找 print(soup.select('div ul')) #根據(jù)id查找 print(soup.select('#web1'))
更多方法及其詳細使用說明,請參見官方文檔:
https://beautiful-soup-4.readthedocs.io/en/latest/
3.代碼實例
學(xué)會了 Beautiful Soup ,讓我們試著改寫一下上次的爬蟲代碼吧:
import os import sys import requests from bs4 import BeautifulSoup x = requests.get('https://www.csdn.net/') soup = BeautifulSoup(x.text, 'lxml') img_list = soup.select('img[src]') # 創(chuàng)建img文件夾 os.chdir(os.path.dirname(sys.argv[0])) if not os.path.exists('img'): os.mkdir('img') print('創(chuàng)建文件夾成功') else: print('文件夾已存在') # 下載圖片 for i in range(len(img_list)): item = img_list[i]['src'] img = requests.get(item).content if item.endswith('jpg'): with open(f'./img/{i}.jpg', 'wb') as f: f.write(img) elif item.endswith('jpeg'): with open(f'./img/{i}.jpeg', 'wb') as f: f.write(img) elif item.endswith('png'): with open(f'./img/{i}.png', 'wb') as f: f.write(img) else: print(f'第{i + 1}張圖片格式不正確') continue print(f'第{i + 1}張圖片下載成功')
這就是本文的全部內(nèi)容了,快去動手試試吧!
到此這篇關(guān)于Python 頁面解析Beautiful Soup庫的使用的文章就介紹到這了,更多相關(guān)Python Beautiful Soup庫內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python調(diào)用另外一個py文件中函數(shù)的具體步驟
這篇文章主要給大家介紹了關(guān)于python調(diào)用另外一個py文件中函數(shù)的具體步驟,要在一個Python文件中調(diào)用其他Python文件中的方法,可以使用Python的模塊導(dǎo)入功能,需要的朋友可以參考下2023-11-11Python面向?qū)ο蟪绦蛟O(shè)計類的多態(tài)用法詳解
這篇文章主要介紹了Python面向?qū)ο蟪绦蛟O(shè)計類的多態(tài)用法,結(jié)合實例形式詳細分析了Python面向?qū)ο蟪绦蛟O(shè)計中類的多態(tài)概念、原理、用法及相關(guān)操作注意事項,需要的朋友可以參考下2019-04-04Python實現(xiàn)matplotlib顯示中文的方法詳解
這篇文章主要介紹了Python實現(xiàn)matplotlib顯示中文的方法,結(jié)合實例形式詳細總結(jié)分析了Python使用matplotlib庫繪圖時顯示中文的相關(guān)操作技巧與注意事項,需要的朋友可以參考下2018-02-02PyTorch搭建LSTM實現(xiàn)時間序列負荷預(yù)測
這篇文章主要為大家介紹了PyTorch搭建LSTM實現(xiàn)時間序列負荷預(yù)測,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-05-05