解決Python requests庫編碼 socks5代理的問題
編碼問題
response = requests.get(URL, params=params,
headers=headers, timeout=10)
print 'self.encoding',response.encoding
output:
self.encoding ISO-8859-1
查了一些相關(guān)的資料,看了下requests的源碼,只有在服務(wù)器響應(yīng)的頭部包含有Content-Type,且里面有charset信息,requests能夠正確識別,否則就會使用默認(rèn)的 ISO-8859-1編碼。github中也有討論這個問題,但requests的作者們說是根據(jù)rfc來的.
在上述代碼中,response.text 是requests庫返回響應(yīng)的Unicode編碼內(nèi)容
這樣,當(dāng)我們?nèi)カ@取一些中文網(wǎng)頁的響應(yīng)內(nèi)容時,且其響應(yīng)頭部沒有charset信息,則response.text的編碼就會有問題(requests的json()方法也受這個編碼影響)
比如,我爬取百度的網(wǎng)頁的時候,其中文是utf-8編碼的
如下python2.7代碼
In [14]: a = '約' #utf-8編碼
In [15]: a
Out[15]: '\xe7\xba\xa6'
In [22]: b=a.decode('ISO-8859-1')#response.text 認(rèn)為響應(yīng)內(nèi)容是ISO-8859-1編碼,將其decode為Unicode
In [23]: b
Out[23]: u'\xe7\xba\xa6'
In [26]: c=b.encode('utf8')#如果我們沒有注意ISO-8859-1,直接以utf8對其進(jìn)行編碼
In [27]: c
Out[27]: '\xc3\xa7\xc2\xba\xc2\xa6'#那么encode得到的utf-8,在顯示器上顯示的就是亂碼,因為'約'的utf-8編碼是'\xe7\xba\xa6'
解決方法1: 用response.content ,response.content in bytes,所以用content可以自己決定對其的編碼
解決方法2: 獲得請求后使用 response.encoding = ‘utf-8'
解決方法3: 利用requests庫里根據(jù)獲得響應(yīng)內(nèi)容來判斷編碼的函數(shù),參考文獻(xiàn)里有講到
python2的編碼還是很亂的 str可以是各種編碼,python3統(tǒng)一str為Unicode, byte可以是各種編碼
python2中encode后是str類型,decode后是Unicode類型,python3中encode后是byte類型,decode后是str類型(Unicode編碼)
用python3吧,下面是python3的代碼
In [13]: a = '約' #Unicode
In [14]: type(a)
Out[14]: str
In [15]: b=a.encode('utf8')
In [16]: b
Out[16]: b'\xe7\xba\xa6'
In [17]: type(b)
Out[17]: bytes
In [27]: b'\xe7\xba\xa623,000'.decode('ISO-8859-1')
Out[27]: '约23,000'
In [28]: type(b'\xe7\xba\xa623,000'.decode('ISO-8859-1'))
Out[28]: str
In [29]: b'\xe7\xba\xa623,000'.decode('utf8')
Out[29]: '約23,000'
socks5代理問題
現(xiàn)在的requests2.13.0的socks5代理我在使用的時候會出現(xiàn)問題,
我用的代理是shadowsocks,比如我想要訪問https://www.facebook.com 在向本地127.0.0.1:1080端口發(fā)送socks5請求時,我發(fā)現(xiàn)shadowsocks在向一個IP地址連接,連接不上,我用chrome連接Facebook的時候,我發(fā)現(xiàn)shadowsocks是在向www.facebook.com連接,能夠成功連接,應(yīng)該是DNS解析問題,出現(xiàn)了重復(fù)解析的問題,使用requests2.12不會有這個問題,在github上也找到了相關(guān)的issue
import requests
headers = {'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) '
'AppleWebKit/537.36 (KHTML, like Gecko) '
'Chrome/56.0.2924.87 Safari/537.36'}
proxies = {'http': 'socks5://127.0.0.1:1080','https':'socks5://127.0.0.1:1080'}
url = 'https://www.facebook.com'
response = requests.get(url, proxies=proxies)
print(response.content)


以上這篇解決Python requests庫編碼 socks5代理的問題就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
- python3 requests庫實現(xiàn)多圖片爬取教程
- python3 requests庫文件上傳與下載實現(xiàn)詳解
- python爬取百度貼吧前1000頁內(nèi)容(requests庫面向?qū)ο笏枷雽崿F(xiàn))
- python requests庫爬取豆瓣電視劇數(shù)據(jù)并保存到本地詳解
- python安裝requests庫的實例代碼
- python爬蟲基礎(chǔ)教程:requests庫(二)代碼實例
- python利用requests庫模擬post請求時json的使用教程
- Python Requests庫基本用法示例
- Python requests庫用法實例詳解
- python利用requests庫進(jìn)行接口測試的方法詳解
- mac下給python3安裝requests庫和scrapy庫的實例
- 基于python requests庫中的代理實例講解
- 使用requests庫制作Python爬蟲
- python中數(shù)據(jù)爬蟲requests庫使用方法詳解
- Python3.6安裝及引入Requests庫的實現(xiàn)方法
- python中requests庫session對象的妙用詳解
- Python中第三方庫Requests庫的高級用法詳解
- 常用python爬蟲庫介紹與簡要說明
- 使用Python爬蟲庫requests發(fā)送請求、傳遞URL參數(shù)、定制headers
相關(guān)文章
python使用opencv在Windows下調(diào)用攝像頭實現(xiàn)解析
這篇文章主要介紹了python使用opencv在Windows下調(diào)用攝像頭實現(xiàn)解析,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2019-11-11
Python 實現(xiàn)刪除某路徑下文件及文件夾的實例講解
下面小編就為大家分享一篇Python 實現(xiàn)刪除某路徑下文件及文件夾的實例講解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2018-04-04
python中pymysql的executemany使用方式
這篇文章主要介紹了python中pymysql的executemany使用方式,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2023-01-01

