Python Beautiful Soup模塊使用教程詳解
一、模塊簡(jiǎn)介
Beautiful Soup 是一個(gè)可以從HTML或XML文件中提取數(shù)據(jù)的Python庫(kù).它能夠通過(guò)你喜歡的轉(zhuǎn)換器實(shí)現(xiàn)慣用的文檔導(dǎo)航,查找,修改文檔的方式.Beautiful Soup會(huì)幫你節(jié)省數(shù)小時(shí)甚至數(shù)天的工作時(shí)間.
二、方法利用
1、引入模塊
# 引入 html_doc = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's story</b></p> <p class="story">Once upon a time there were three little sisters; and their names were <a rel="external nofollow" class="sister" id="link1">Elsie</a>, <a rel="external nofollow" class="sister" id="link2">Lacie</a> and <a rel="external nofollow" class="sister" id="link3">Tillie</a>; and they lived at the bottom of a well.</p> <p class="story">...</p> """ from bs4 import BeautifulSoup soup = BeautifulSoup(html_doc, 'html.parser')
四種解析器

2、幾個(gè)簡(jiǎn)單的瀏覽結(jié)構(gòu)化數(shù)據(jù)的方法
#獲取Tag,通俗點(diǎn)就是HTML中的一個(gè)個(gè)標(biāo)簽
#獲取Tag,通俗點(diǎn)就是HTML中的一個(gè)個(gè)標(biāo)簽
soup.title # 獲取整個(gè)title標(biāo)簽字段:<title>The Dormouse's story</title>
soup.title.name # 獲取title標(biāo)簽名稱 :title
soup.title.parent.name # 獲取 title 的父級(jí)標(biāo)簽名稱:head
soup.p # 獲取第一個(gè)p標(biāo)簽字段:<p class="title"><b>The Dormouse's story</b></p>
soup.p['class'] # 獲取第一個(gè)p中class屬性值:title
soup.p.get('class') # 等價(jià)于上面
soup.a # 獲取第一個(gè)a標(biāo)簽字段
soup.find_all('a') # 獲取所有a標(biāo)簽字段
soup.find(id="link3") # 獲取屬性id值為link3的字段
soup.a['class'] = "newClass" # 可以對(duì)這些屬性和內(nèi)容等等進(jìn)行修改
del bs.a['class'] # 還可以對(duì)這個(gè)屬性進(jìn)行刪除
soup.find('a').get('id') # 獲取class值為story的a標(biāo)簽中id屬性的值
soup.title.string # 獲取title標(biāo)簽的值 :The Dormouse's story三、具體利用
1、獲取擁有指定屬性的標(biāo)簽
方法一:獲取單個(gè)屬性
soup.find_all('div',id="even") # 獲取所有id=even屬性的div標(biāo)簽
soup.find_all('div',attrs={'id':"even"}) # 效果同上
方法二:
soup.find_all('div',id="even",class_="square") # 獲取所有id=even并且class=square屬性的div標(biāo)簽
soup.find_all('div',attrs={"id":"even","class":"square"}) # 效果同上2、獲取標(biāo)簽的屬性值
方法一:通過(guò)下標(biāo)方式提取
for link in soup.find_all('a'):
print(link['href']) //等同于 print(link.get('href'))
方法二:利用attrs參數(shù)提取
for link in soup.find_all('a'):
print(link.attrs['href'])3、獲取標(biāo)簽中的內(nèi)容
divs = soup.find_all('div') # 獲取所有的div標(biāo)簽
for div in divs: # 循環(huán)遍歷div中的每一個(gè)div
a = div.find_all('a')[0] # 查找div標(biāo)簽中的第一個(gè)a標(biāo)簽
print(a.string) # 輸出a標(biāo)簽中的內(nèi)容
如果結(jié)果沒(méi)有正確顯示,可以轉(zhuǎn)換為list列表4、stripped_strings
去除\n換行符等其他內(nèi)容 stripped_strings
divs = soup.find_all('div')
for div in divs:
infos = list(div.stripped_strings) # 去掉空格換行等
bring(infos)四、輸出
1、格式化輸出prettify()
prettify() 方法將Beautiful Soup的文檔樹(shù)格式化后以Unicode編碼輸出,每個(gè)XML/HTML標(biāo)簽都獨(dú)占一行
markup = '<a rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >I linked to <i>example.com</i></a>' soup = BeautifulSoup(markup) soup.prettify() # '<html>\n <head>\n </head>\n <body>\n <a rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >\n...' print(soup.prettify()) # <html> # <head> # </head> # <body> # <a rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" > # I linked to # <i> # example.com # </i> # </a> # </body> # </html>
2、get_text()
如果只想得到tag中包含的文本內(nèi)容,那么可以調(diào)用 get_text() 方法,這個(gè)方法獲取到tag中包含的所有文版內(nèi)容包括子孫tag中的內(nèi)容,并將結(jié)果作為Unicode字符串返回:
markup = '<a rel="external nofollow" rel="external nofollow" rel="external nofollow" rel="external nofollow" >\nI linked to <i>example.com</i>\n</a>' soup = BeautifulSoup(markup) soup.get_text() u'\nI linked to example.com\n' soup.i.get_text() u'example.com'
到此這篇關(guān)于Python Beautiful Soup模塊使用教程詳解的文章就介紹到這了,更多相關(guān)Python Beautiful Soup內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Python數(shù)據(jù)解析之BeautifulSoup4的用法詳解
- python解析庫(kù)Beautiful?Soup安裝的詳細(xì)步驟
- Python爬蟲(chóng)之使用BeautifulSoup和Requests抓取網(wǎng)頁(yè)數(shù)據(jù)
- Python BeautifulSoup基本用法詳解(通過(guò)標(biāo)簽及class定位元素)
- python BeautifulSoup庫(kù)的安裝與使用
- Python中BeautifulSoup通過(guò)查找Id獲取元素信息
- Python基于BeautifulSoup爬取京東商品信息
- Python Beautiful Soup 使用示例詳解
相關(guān)文章
pyqt5利用pyqtDesigner實(shí)現(xiàn)登錄界面
這篇文章主要為大家詳細(xì)介紹了pyqt5利用pyqtDesigner實(shí)現(xiàn)登錄界面,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-03-03
PyQt5如何將.ui文件轉(zhuǎn)換為.py文件的實(shí)例代碼
這篇文章主要介紹了PyQt5之如何將.ui文件轉(zhuǎn)換為.py文件,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-05-05
Python使用signal定時(shí)結(jié)束AsyncIOScheduler任務(wù)的問(wèn)題
這篇文章主要介紹了Python使用signal定時(shí)結(jié)束AsyncIOScheduler任務(wù),在使用aiohttp結(jié)合apscheduler的AsyncIOScheduler模擬定點(diǎn)并發(fā)的時(shí)候遇到兩個(gè)問(wèn)題,針對(duì)每個(gè)問(wèn)題給大家詳細(xì)介紹,需要的朋友可以參考下2021-07-07
使用BeautifulSoup4解析XML的方法小結(jié)
這篇文章主要介紹了使用BeautifulSoup4解析XML的方法小結(jié),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-12-12

