亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Python3 Post登錄并且保存cookie登錄其他頁面的方法

 更新時間:2018年12月28日 15:03:23   作者:隊長小楠  
今天小編就為大家分享一篇Python3 Post登錄并且保存cookie登錄其他頁面的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

如下所示:

import urllib.request
import sys
import http.cookiejar
import urllib.parse
from bs4 import BeautifulSoup
import codecs
import re

#登錄頁面
url = "http://www.abc.com/login.asp"
#登錄Post數(shù)據(jù)
postdata =urllib.parse.urlencode({ 
"username":"abc",
"password":"abc"
 }).encode('utf-8')
#構造header
header = {
 "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8",
 "Accept-Encoding":"utf-8",
 "Accept-Language":"zh-cn,zh;q=0.8,en-us;q=0.5,en;q=0.3",
 "Connection":"keep-alive",
 "Host":"www.abc.com",
 "Referer":"http://www.abc.com/login.asp",
 "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64; rv:32.0) Gecko/20100101 Firefox/32.0"
 }


req = urllib.request.Request(url,postdata,header)
#獲得cookie
cj = http.cookiejar.CookieJar()
opener=urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))
r = opener.open(req)

#繼續(xù)訪問登陸后的頁面

get_url = 'http://www.abc.com/user/' 
get_request = urllib.request.Request(get_url, headers=header)
get_response = opener.open(get_request)
#打印獲得的頁面信息
print(get_response.read().decode("utf-8"))
#用bs4可以獲得你需要的標簽內(nèi)容
soup = BeautifulSoup(get_response.read(),"html.parser")
jie = soup.find_all('span')
#這里利用正則表達式過濾掉html語言
dr = re.compile(r'<[^>]+>',re.S)
#這里jie[2]表示取符合條件的第三個標簽
dd = dr.sub('',str(jie[2]))
print(dd)

以上這篇Python3 Post登錄并且保存cookie登錄其他頁面的方法就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關文章

最新評論