亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

python編程之requests在網絡請求中添加cookies參數(shù)方法詳解

 更新時間:2017年10月25日 14:44:15   作者:Winterto1990  
這篇文章主要介紹了python編程之requests在網絡請求中添加cookies參數(shù)方法詳解,具有一定參考價值,需要的朋友可以了解下。

哎,好久沒有學習爬蟲了,現(xiàn)在想要重新拾起來。發(fā)現(xiàn)之前學習爬蟲有些粗糙,竟然連requests中添加cookies都沒有掌握,慚愧。廢話不宜多,直接上內容。

我們平時使用requests獲取網絡內容很簡單,幾行代碼搞定了,例如:

import requests 
res=requests.get("https://cloud.flyme.cn/browser/index.jsp") 
print res.content

你沒有看錯,真的只有三行代碼。但是簡單歸簡單,問題還是不少的。

首先,這里的請求只是get方法,并且沒有解決cookies的問題。

然后就是這里并沒有解決亂碼的問題。(亂碼是python中的變態(tài)點)其實,在requests的get方法中添加cookies的方法不難 可以這樣子:

res=requests.get("https://cloud.flyme.cn/browser/index.jsp",cookies=cookies) 

我們所面臨的問題是,如何構造這里的cookies。

這里的cookies是一個字典格式的數(shù)據。

平時我們?yōu)g覽網頁的時候,在審查元素中可以查看到所訪問網頁的cookies內容,大都是這樣子的:

sn_openNetBySms=%23810EBMA3TE53; sn_map=810EBMA3TE53; DSESSIONID=f1987887-3d1d-4a85-ad75-c6270e588290; JSESSIONID=; _uid=; _keyLogin=; _rmtk=; _uticket=ns_0393027c2f9f686e3499e8ebb8d1d622; _ckk=ns_397a592791064029bf1336eff1cf516e; ucuid=8a135520affa423584307f6e2c210f02; _domain=cloud.flyme.cn; _islogin=true; lang=zh_CN; JSESSIONID=1gmfzynp0ns6s1u6a92xkqgi6q 

天那,這是人看的嗎?不是。這是經過加密處理后的數(shù)據。同樣,我們可以將加密后的數(shù)據傳遞到get方法的cookies參數(shù)中,服務器會自動將加密后的數(shù)據進行解密,再檢查數(shù)據的正確性。

至于,如何查看所訪問網頁的cookies內容,可以使用瀏覽器的審查功能,F(xiàn)12或者右擊審查(Chrome)打開。在network中查看鏈接的Headers內容。另外,也可以使用軟件抓包查看,如Fiddler web Debugger。

這里假設獲取到了cookies的內容,我們可以保存到本地TXT文件中(直接把cookies的內容粘貼進去即可),例如test.txt文件。
然后,

f=open(r'test.txt','r')#打開所保存的cookies內容文件 
cookies={}#初始化cookies字典變量 
for line in f.read().split(';'):  #按照字符:進行劃分讀取 
  #其設置為1就會把字符串拆分成2份 
  name,value=line.strip().split('=',1) 
  cookies[name]=value #為字典cookies添加內容 

這時候我們將cookies添加到get方法中:

res=requests.get("https://cloud.flyme.cn/browser/index.jsp",cookies=cookies) 

這時候獲取到的res.content中就是我們將cookies信息添加到get中后訪問網頁所獲取的內容。

總結

以上就是本文關于python編程之requests在網絡請求中添加cookies參數(shù)方法詳解的全部內容,希望對大家有所幫助。感興趣的朋友可以繼續(xù)參閱本站:python正則表達式re之compile函數(shù)解析Python_LDA實現(xiàn)方法詳解、Python探索之修改Python搜索路徑等,如有不足之處,歡迎留言討論。感謝朋友們對本站的支持!

相關文章

  • 在Python中append以及extend返回None的例子

    在Python中append以及extend返回None的例子

    今天小編就為大家分享一篇在Python中append以及extend返回None的例子,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-07-07
  • 利用python添加表格到PowerPoint中的代碼示例

    利用python添加表格到PowerPoint中的代碼示例

    有效的信息傳達是演示文稿中的重點,而PowerPoint演示文稿作為最廣泛使用的演示工具之一,提供了豐富的功能來幫助演講者實現(xiàn)這一目標,本文將介紹如何利用Python來添加表格到PowerPoint演示文稿中,需要的朋友可以參考下
    2024-08-08
  • python讀csv文件時指定行為表頭或無表頭的方法

    python讀csv文件時指定行為表頭或無表頭的方法

    這篇文章主要介紹了python讀csv文件時指定行為表頭或無表頭的方法,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-06-06
  • Python使用psutil對系統(tǒng)數(shù)據進行采集監(jiān)控

    Python使用psutil對系統(tǒng)數(shù)據進行采集監(jiān)控

    psutil庫可以實時獲取系統(tǒng)的一些信息,這樣就可以達到實時監(jiān)控系統(tǒng)的目的。本文對詳細講解了ython使用psutil對系統(tǒng)數(shù)據進行采集監(jiān)控,感興趣的朋友可以看一看
    2021-08-08
  • Python爬蟲實戰(zhàn)之爬取某寶男裝信息

    Python爬蟲實戰(zhàn)之爬取某寶男裝信息

    網絡爬蟲是一種按照一定的規(guī)則自動瀏覽、檢索網頁信息的程序或者腳本。網絡爬蟲能夠自動請求網頁,并將所需要的數(shù)據抓取下來。本文將為大家介紹如何利用爬蟲獲取某寶男裝信息,感興趣的小伙伴可以了解一下
    2021-12-12
  • Python實現(xiàn)的飛速中文網小說下載腳本

    Python實現(xiàn)的飛速中文網小說下載腳本

    這篇文章主要介紹了Python實現(xiàn)的飛速中文網小說下載腳本,本文直接給出實現(xiàn)代碼,需要的朋友可以參考下
    2015-04-04
  • 后端開發(fā)使用pycharm的技巧(推薦)

    后端開發(fā)使用pycharm的技巧(推薦)

    這篇文章主要介紹了后端開發(fā)使用pycharm的技巧,本文通過圖文并茂的形式給大家介紹的非常詳細,對大家的學習或工作具有一定的參考借鑒價值,需要的朋友可以參考下
    2020-03-03
  • Python第三方庫的幾種安裝方式(小結)

    Python第三方庫的幾種安裝方式(小結)

    這篇文章主要介紹了Python第三方庫的幾種安裝方式(小結),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-04-04
  • Python re模塊介紹

    Python re模塊介紹

    這篇文章主要介紹了Python re模塊介紹,需要的朋友可以參考下
    2014-11-11
  • vc6編寫python擴展的方法分享

    vc6編寫python擴展的方法分享

    有些C/C++的代碼要在Python中要用到,又不想轉成python,所以就寫成python的擴展來調用,以下是我嘗試后,在VC6下編寫python擴展的過程
    2014-01-01

最新評論