亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

利用Python?requests庫爬取高德地圖全國地鐵站點(diǎn)信息

 更新時間:2024年03月08日 12:19:06   作者:YiFoEr_Liu  
requests?模塊是?python?基于?urllib,采用?Apache2?Licensed?開源協(xié)議的?HTTP?庫,它比?urllib?更加方便,可以節(jié)約我們大量的工作,完全滿足?HTTP?測試需求,這篇文章主要介紹了利用Python?requests庫爬取高德地圖全國地鐵站點(diǎn)信息,需要的朋友可以參考下

requests庫

一、 基本概念

1、 簡介

requests 模塊是 python 基于 urllib,采用 Apache2 Licensed 開源協(xié)議的 HTTP 庫。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測試需求。Requests 的哲學(xué)是以 PEP 20 的習(xí)語為中心開發(fā)的,所以它比 urllib 更加 Pythoner

2、 獲取

通過 pip install requests 安裝 requests 庫

導(dǎo)包:

import requests

3、 http 協(xié)議

http ,超文本傳輸協(xié)議,是互聯(lián)網(wǎng)上應(yīng)用最為廣泛的一種網(wǎng)絡(luò)協(xié)議。所有的WWW文件都必須遵守這個標(biāo)準(zhǔn)。設(shè)計HTTP最初的目的是為了提供一種發(fā)布和接收HTML頁面的方法,HTTP是一種基于"請求與響應(yīng)"模式的、無狀態(tài)的應(yīng)用層協(xié)議。HTTP協(xié)議采用URL作為定位網(wǎng)絡(luò)資源的的標(biāo)識符

3.1 URL

統(tǒng)一資源定位符是互聯(lián)網(wǎng)上標(biāo)準(zhǔn)資源地址?;ヂ?lián)網(wǎng)上的每一個文件都有一個唯一的 URL,它包含的信息指出文件的位置以及瀏覽器應(yīng)該怎么處理它

URL 的一般語法格式為:

protocol://host[:port]/path/[?query]#fragment
http://www.itcast.cn/index.html?name=andy&age=18#link
組成說明
protocol通信協(xié)議,常用:http、https 等
host主機(jī)(域名)
port端口號,可選,省略時候使用方案的默認(rèn)端口,如:http的默認(rèn)端口為80
path路徑,由零或多個 ‘/’ 符號隔開的字符串,一般用來表示主機(jī)上的一個目錄或文件地址
query參數(shù),以鍵值對的形式通過 & 來連接
fragment片段,# 后面內(nèi)容常見于鏈接 錨點(diǎn)

3.2 常用 http 請求方法

方法說明
requsts.requst()構(gòu)造一個請求,最基本的方法,是下面方法的支撐
requsts.get()獲取網(wǎng)頁,對應(yīng)HTTP中的GET方法
requsts.post()向網(wǎng)頁提交信息,對應(yīng)HTTP中的POST方法
requsts.head()獲取html網(wǎng)頁的頭信息,對應(yīng)HTTP中的HEAD方法
requsts.put()向html提交put方法,對應(yīng)HTTP中的PUT方法
requsts.patch()向html網(wǎng)頁提交局部請求修改的的請求,對應(yīng)HTTP中的PATCH方法
requsts.delete()向html提交刪除請求,對應(yīng)HTTP中的DELETE方法

GET,HEAD是從服務(wù)器獲取信息到本地,PUT,POST,PATCH,DELETE是從本地向服務(wù)器提交信息。通過URL和命令管理資源,操作獨(dú)立無狀態(tài),網(wǎng)絡(luò)通道及服務(wù)器成了黑盒子。

正文開始

利用Python requests庫爬取高德地圖全國地鐵站點(diǎn)信息

利用Python中的requests庫進(jìn)行地鐵站點(diǎn)信息的獲取,同時將數(shù)據(jù)保存在本機(jī)excel中

# 首先引入所需要的包
import requests
from bs4 import BeautifulSoup
import pandas as pd
import json
# 發(fā)送 GET 請求獲取網(wǎng)頁內(nèi)容
url = 'http://map.amap.com/subway/index.html'
response = requests.get(url)
# 第一步:爬取兩個 div 中的城市數(shù)據(jù)(包括 ID 和拼音),生成城市集合
if response.status_code == 200:
    # 解碼
    response_content = response.content.decode('utf-8')
    # 使用 Beautiful Soup 解析網(wǎng)頁內(nèi)容
    soup = BeautifulSoup(response_content, 'html.parser')
    # 從這里開始,你可以使用 Beautiful Soup 對象(soup)來提取所需的信息
    # 例如,查找標(biāo)題
    title = soup.title
    # 通過Beautiful Soup來找到城市信息元素,并提取這個元素的信息
    for soup_a in soup.find('div', class_='city-list fl').find_all('a'):
        city_name_py = soup_a['cityname']
        city_id = soup_a['id']
        city_name_ch = soup_a.get_text()
        city_info_list.append({'name_py': city_name_py, 'id': city_id, 'name_ch': city_name_ch})
        # 獲取未顯示出來的城市列表
    for soup_a in soup.find('div', class_='more-city-list').find_all('a'):
        city_name_py = soup_a['cityname']
        city_id = soup_a['id']
        city_name_ch = soup_a.get_text()
        city_info_list.append({'name_py': city_name_py, 'id': city_id, 'name_ch': city_name_ch})
        print(city_info_list)
else:
    print("無法獲取網(wǎng)頁內(nèi)容")
for city_info in city_info_list:
    city_id = city_info.get("id")
    city_name = city_info.get("name_py")
    city_name_ch = city_info.get("name_ch")
    print("開始爬取城市" + city_name_ch + "的數(shù)據(jù)")
    city_lines_list = []
    # 第二步:遍歷城市集合,構(gòu)造每一個城市的 url,并下載數(shù)據(jù)
    # 構(gòu)造每個城市的url
    url = "http://map.amap.com/service/subway?_1717380520536&srhdata=" + city_id + '_drw_' + city_name + '.json'
    res = requests.get(url)
    content = res.content.decode('utf-8')
    # 將內(nèi)容字符串轉(zhuǎn)換成json對象
    content_json = json.loads(content)
    # 提取該城市的所有地鐵線list
    line_info_list = content_json.get("l")
    # 第三步:開始處理每一個地鐵線,提取內(nèi)容到dataframe中
    for line_info in line_info_list:
        # 地鐵線名字
        line_name = line_info["kn"]
        # 處理地鐵線站點(diǎn)
        df_per_zd = pd.DataFrame(line_info["st"])
        df_per_zd = df_per_zd[['n', 'sl', 'poiid', 'sp', 't', 'su', 'sid']]
        df_per_zd['gd經(jīng)度'] = df_per_zd['sl'].apply(lambda x: x.split(',')[0])
        df_per_zd['gd緯度'] = df_per_zd['sl'].apply(lambda x: x.split(',')[1])
        df_per_zd.drop('sl', axis=1, inplace=True)
        df_per_zd['路線名稱'] = line_info['ln']
        df_per_zd['城市名稱'] = city_name_ch
        df_per_zd.rename(columns={"n": "站點(diǎn)名稱", "poiid": "POI編號", "sp": "拼音名稱", "t": "換乘標(biāo)志 1:換乘,0:不可換乘", "su": "su", "sid": "sid編號"}, inplace=True)
        # 先將這條地鐵線處理過的dataframe存起來,我們后面給他放到一張表里
        city_lines_list.append(df_per_zd)
    # 這段代碼就是將地鐵線數(shù)據(jù)列表聚合到一張表里,形成每個城市的地鐵站數(shù)據(jù)
    city_subway_data = pd.concat(city_lines_list, ignore_index=True)
    # 第四步:將處理好的文件保存為xlsx
    city_subway_data.to_excel(city_name_ch + '.xlsx', sheet_name='Sheet1')

到此這篇關(guān)于利用Python requests庫爬取高德地圖全國地鐵站點(diǎn)信息的文章就介紹到這了,更多相關(guān)Python爬取地鐵站點(diǎn)信息內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論