亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

python3使用requests模塊爬取頁(yè)面內(nèi)容的實(shí)戰(zhàn)演練

 更新時(shí)間:2017年09月25日 10:42:49   作者:Gavin丶Hsueh  
本篇文章主要介紹了python3使用requests模塊爬取頁(yè)面內(nèi)容的實(shí)戰(zhàn)演練,具有一定的參考價(jià)值,有興趣的可以了解一下

1.安裝pip

我的個(gè)人桌面系統(tǒng)用的linuxmint,系統(tǒng)默認(rèn)沒(méi)有安裝pip,考慮到后面安裝requests模塊使用pip,所以我這里第一步先安裝pip。

$ sudo apt install python-pip

安裝成功,查看PIP版本:

$ pip -V

2.安裝requests模塊

這里我是通過(guò)pip方式進(jìn)行安裝:

$ pip install requests

運(yùn)行import requests,如果沒(méi)提示錯(cuò)誤,那說(shuō)明已經(jīng)安裝成功了!

檢驗(yàn)是否安裝成功

3.安裝beautifulsoup4

Beautiful Soup 是一個(gè)可以從HTML或XML文件中提取數(shù)據(jù)的Python庫(kù)。它能夠通過(guò)你喜歡的轉(zhuǎn)換器實(shí)現(xiàn)慣用的文檔導(dǎo)航,查找、修改文檔的方式。Beautiful Soup會(huì)幫你節(jié)省數(shù)小時(shí)甚至數(shù)天的工作時(shí)間。

$ sudo apt-get install python3-bs4

注:這里我使用的是python3的安裝方式,如果你用的是python2,可以使用下面命令安裝。

$ sudo pip install beautifulsoup4

4.requests模塊淺析

1)發(fā)送請(qǐng)求

首先當(dāng)然是要導(dǎo)入 Requests 模塊:

>>> import requests

然后,獲取目標(biāo)抓取網(wǎng)頁(yè)。這里我以下為例:

>>> r = requests.get('http://chabaoo.cn/article/124421.htm')

這里返回一個(gè)名為 r 的響應(yīng)對(duì)象。我們可以從這個(gè)對(duì)象中獲取所有我們想要的信息。這里的get是http的響應(yīng)方法,所以舉一反三你也可以將其替換為put、delete、post、head。

2)傳遞URL參數(shù)

有時(shí)我們想為 URL 的查詢(xún)字符串傳遞某種數(shù)據(jù)。如果你是手工構(gòu)建 URL,那么數(shù)據(jù)會(huì)以鍵/值對(duì)的形式置于 URL 中,跟在一個(gè)問(wèn)號(hào)的后面。例如, cnblogs.com/get?key=val。 Requests 允許你使用 params 關(guān)鍵字參數(shù),以一個(gè)字符串字典來(lái)提供這些參數(shù)。

舉例來(lái)說(shuō),當(dāng)我們google搜索“python爬蟲(chóng)”關(guān)鍵詞時(shí),newwindow(新窗口打開(kāi))、q及oq(搜索關(guān)鍵詞)等參數(shù)可以手工組成URL ,那么你可以使用如下代碼:

>>> payload = {'newwindow': '1', 'q': 'python爬蟲(chóng)', 'oq': 'python爬蟲(chóng)'}

>>> r = requests.get("https://www.google.com/search", params=payload)

3)響應(yīng)內(nèi)容

通過(guò)r.text或r.content來(lái)獲取頁(yè)面響應(yīng)內(nèi)容。

>>> import requests

>>> r = requests.get('https://github.com/timeline.json')

>>> r.text

Requests 會(huì)自動(dòng)解碼來(lái)自服務(wù)器的內(nèi)容。大多數(shù) unicode 字符集都能被無(wú)縫地解碼。這里補(bǔ)充一點(diǎn)r.text和r.content二者的區(qū)別,簡(jiǎn)單說(shuō):

resp.text返回的是Unicode型的數(shù)據(jù);

resp.content返回的是bytes型也就是二進(jìn)制的數(shù)據(jù);

所以如果你想取文本,可以通過(guò)r.text,如果想取圖片,文件,則可以通過(guò)r.content。

4)獲取網(wǎng)頁(yè)編碼

>>> r = requests.get('http://www.cnblogs.com/')

>>> r.encoding

'utf-8'

5)獲取響應(yīng)狀態(tài)碼

我們可以檢測(cè)響應(yīng)狀態(tài)碼:

>>> r = requests.get('http://www.cnblogs.com/')

>>> r.status_code

200

5.案例演示

最近公司剛引入了一款OA系統(tǒng),這里我以其官方說(shuō)明文檔頁(yè)面為例,并且只抓取頁(yè)面中文章標(biāo)題和內(nèi)容等有用信息。

演示環(huán)境

操作系統(tǒng):linuxmint

python版本:python 3.5.2

使用模塊:requests、beautifulsoup4

代碼如下:

#!/usr/bin/env python
# -*- coding: utf-8 -*-
_author_ = 'GavinHsueh'

import requests
import bs4

#要抓取的目標(biāo)頁(yè)碼地址
url = 'http://www.ranzhi.org/book/ranzhi/about-ranzhi-4.html'

#抓取頁(yè)碼內(nèi)容,返回響應(yīng)對(duì)象
response = requests.get(url)

#查看響應(yīng)狀態(tài)碼
status_code = response.status_code

#使用BeautifulSoup解析代碼,并鎖定頁(yè)碼指定標(biāo)簽內(nèi)容
content = bs4.BeautifulSoup(response.content.decode("utf-8"), "lxml")
element = content.find_all(id='book')

print(status_code)
print(element)

程序運(yùn)行返回爬去結(jié)果:

抓取成功

關(guān)于爬去結(jié)果亂碼問(wèn)題

其實(shí)起初我是直接用的系統(tǒng)默認(rèn)自帶的python2操作的,但在抓取返回內(nèi)容的編碼亂碼問(wèn)題上折騰了老半天,google了多種解決方案都無(wú)效。在被python2“整瘋“之后,只好老老實(shí)實(shí)用python3了。對(duì)于python2的爬取頁(yè)面內(nèi)容亂碼問(wèn)題,歡迎各位前輩們分享經(jīng)驗(yàn),以幫助我等后生少走彎路。

后記

python的爬蟲(chóng)相關(guān)模塊有很多,除了requests模塊,再如urllib和pycurl以及tornado等。相比而言,我個(gè)人覺(jué)得requests模塊是相對(duì)簡(jiǎn)單易上手的了。通過(guò)文本,大家可以迅速學(xué)會(huì)使用python的requests模塊爬取頁(yè)碼內(nèi)容。本人能力有限,如果文章有任何錯(cuò)誤歡迎不吝賜教,其次如果大家有任何關(guān)于python爬去頁(yè)面內(nèi)容的疑難雜問(wèn),也歡迎和大家一起交流討論。

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • 分享Python切分字符串的一個(gè)不錯(cuò)方法

    分享Python切分字符串的一個(gè)不錯(cuò)方法

    今天小編就為大家分享一篇Python切分字符串的一個(gè)不錯(cuò)方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-12-12
  • 基于Python編寫(xiě)一個(gè)中秋節(jié)嫦娥投食小游戲

    基于Python編寫(xiě)一個(gè)中秋節(jié)嫦娥投食小游戲

    今天給大家?guī)?lái)的是給玉兔投喂月餅的小游戲。八月十五中秋夜晚,讓我們對(duì)著月亮許愿:希望我們?cè)谝夂驮谝馕覀兊娜?,諸邪避退、百事無(wú)忌、平安喜樂(lè)、萬(wàn)事勝意。提前祝大家中秋節(jié)快樂(lè)
    2022-09-09
  • python字符串基礎(chǔ)操作詳解

    python字符串基礎(chǔ)操作詳解

    這篇文章主要為大家詳細(xì)介紹了python字符串基礎(chǔ)操作,,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來(lái)幫助
    2022-01-01
  • 手把手教你jupyter?notebook更換環(huán)境的方法

    手把手教你jupyter?notebook更換環(huán)境的方法

    在日常使用jupyter-notebook時(shí),可能會(huì)碰到需要切換不同虛擬環(huán)境的場(chǎng)景,下面這篇文章主要給大家介紹了關(guān)于jupyter?notebook更換環(huán)境的方法,需要的朋友可以參考下
    2023-05-05
  • Python文件讀寫(xiě)處理日常任務(wù)終極工具實(shí)例

    Python文件讀寫(xiě)處理日常任務(wù)終極工具實(shí)例

    Python文件的讀寫(xiě)操作時(shí),有很多需要考慮的細(xì)節(jié),這包括文件打開(kāi)方式、讀取和寫(xiě)入數(shù)據(jù)的方法、異常處理等,在本文中,將深入探討Python中的文件操作,旨在提供全面的指南,幫你充分了解Python文件的讀寫(xiě)
    2023-11-11
  • python 自動(dòng)化偷懶的四個(gè)實(shí)用操作

    python 自動(dòng)化偷懶的四個(gè)實(shí)用操作

    這篇文章主要介紹了python 自動(dòng)化偷懶的四個(gè)實(shí)用操作,幫助大家更好的理解和學(xué)習(xí)使用python,感興趣的朋友可以了解下
    2021-04-04
  • 如何利用Python將html轉(zhuǎn)為pdf、word文件

    如何利用Python將html轉(zhuǎn)為pdf、word文件

    網(wǎng)絡(luò)上存在很多將HTML轉(zhuǎn)換為PDF的軟件和工具,但是大家都知道收費(fèi),所以下面這篇文章主要給大家介紹了關(guān)于如何利用Python將html轉(zhuǎn)為pdf、word文件的相關(guān)資料,文中通過(guò)示例代碼介紹介紹的非常詳細(xì),需要的朋友可以參考下
    2022-12-12
  • python好玩的項(xiàng)目—色情圖片識(shí)別代碼分享

    python好玩的項(xiàng)目—色情圖片識(shí)別代碼分享

    這篇文章主要介紹了python好玩的項(xiàng)目—色情圖片識(shí)別,具有一定參考價(jià)值,需要的朋友可以了解下。
    2017-11-11
  • PyTorch一小時(shí)掌握之a(chǎn)utograd機(jī)制篇

    PyTorch一小時(shí)掌握之a(chǎn)utograd機(jī)制篇

    這篇文章主要介紹了PyTorch一小時(shí)掌握之a(chǎn)utograd機(jī)制篇,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2021-09-09
  • python原類(lèi)、類(lèi)的創(chuàng)建過(guò)程與方法詳解

    python原類(lèi)、類(lèi)的創(chuàng)建過(guò)程與方法詳解

    在本篇文章里小編給各位分享了關(guān)于python原類(lèi)、類(lèi)的創(chuàng)建過(guò)程與方法的相關(guān)知識(shí)點(diǎn)內(nèi)容,有興趣的朋友們跟著學(xué)習(xí)參考下。
    2019-07-07

最新評(píng)論