利用Python?requests庫爬取高德地圖全國地鐵站點信息
requests庫
一、 基本概念
1、 簡介
requests 模塊是 python 基于 urllib,采用 Apache2 Licensed 開源協(xié)議的 HTTP 庫。它比 urllib 更加方便,可以節(jié)約我們大量的工作,完全滿足 HTTP 測試需求。Requests 的哲學(xué)是以 PEP 20 的習(xí)語為中心開發(fā)的,所以它比 urllib 更加 Pythoner
2、 獲取
通過 pip install requests 安裝 requests 庫
導(dǎo)包:
import requests
3、 http 協(xié)議
http ,超文本傳輸協(xié)議,是互聯(lián)網(wǎng)上應(yīng)用最為廣泛的一種網(wǎng)絡(luò)協(xié)議。所有的WWW文件都必須遵守這個標(biāo)準(zhǔn)。設(shè)計HTTP最初的目的是為了提供一種發(fā)布和接收HTML頁面的方法,HTTP是一種基于"請求與響應(yīng)"模式的、無狀態(tài)的應(yīng)用層協(xié)議。HTTP協(xié)議采用URL作為定位網(wǎng)絡(luò)資源的的標(biāo)識符
3.1 URL
統(tǒng)一資源定位符是互聯(lián)網(wǎng)上標(biāo)準(zhǔn)資源地址?;ヂ?lián)網(wǎng)上的每一個文件都有一個唯一的 URL,它包含的信息指出文件的位置以及瀏覽器應(yīng)該怎么處理它
URL 的一般語法格式為:
protocol://host[:port]/path/[?query]#fragment http://www.itcast.cn/index.html?name=andy&age=18#link
| 組成 | 說明 |
|---|---|
| protocol | 通信協(xié)議,常用:http、https 等 |
| host | 主機(域名) |
| port | 端口號,可選,省略時候使用方案的默認(rèn)端口,如:http的默認(rèn)端口為80 |
| path | 路徑,由零或多個 ‘/’ 符號隔開的字符串,一般用來表示主機上的一個目錄或文件地址 |
| query | 參數(shù),以鍵值對的形式通過 & 來連接 |
| fragment | 片段,# 后面內(nèi)容常見于鏈接 錨點 |
3.2 常用 http 請求方法
| 方法 | 說明 |
|---|---|
| requsts.requst() | 構(gòu)造一個請求,最基本的方法,是下面方法的支撐 |
| requsts.get() | 獲取網(wǎng)頁,對應(yīng)HTTP中的GET方法 |
| requsts.post() | 向網(wǎng)頁提交信息,對應(yīng)HTTP中的POST方法 |
| requsts.head() | 獲取html網(wǎng)頁的頭信息,對應(yīng)HTTP中的HEAD方法 |
| requsts.put() | 向html提交put方法,對應(yīng)HTTP中的PUT方法 |
| requsts.patch() | 向html網(wǎng)頁提交局部請求修改的的請求,對應(yīng)HTTP中的PATCH方法 |
| requsts.delete() | 向html提交刪除請求,對應(yīng)HTTP中的DELETE方法 |
GET,HEAD是從服務(wù)器獲取信息到本地,PUT,POST,PATCH,DELETE是從本地向服務(wù)器提交信息。通過URL和命令管理資源,操作獨立無狀態(tài),網(wǎng)絡(luò)通道及服務(wù)器成了黑盒子。
正文開始
利用Python requests庫爬取高德地圖全國地鐵站點信息
利用Python中的requests庫進(jìn)行地鐵站點信息的獲取,同時將數(shù)據(jù)保存在本機excel中
# 首先引入所需要的包
import requests
from bs4 import BeautifulSoup
import pandas as pd
import json
# 發(fā)送 GET 請求獲取網(wǎng)頁內(nèi)容
url = 'http://map.amap.com/subway/index.html'
response = requests.get(url)
# 第一步:爬取兩個 div 中的城市數(shù)據(jù)(包括 ID 和拼音),生成城市集合
if response.status_code == 200:
# 解碼
response_content = response.content.decode('utf-8')
# 使用 Beautiful Soup 解析網(wǎng)頁內(nèi)容
soup = BeautifulSoup(response_content, 'html.parser')
# 從這里開始,你可以使用 Beautiful Soup 對象(soup)來提取所需的信息
# 例如,查找標(biāo)題
title = soup.title
# 通過Beautiful Soup來找到城市信息元素,并提取這個元素的信息
for soup_a in soup.find('div', class_='city-list fl').find_all('a'):
city_name_py = soup_a['cityname']
city_id = soup_a['id']
city_name_ch = soup_a.get_text()
city_info_list.append({'name_py': city_name_py, 'id': city_id, 'name_ch': city_name_ch})
# 獲取未顯示出來的城市列表
for soup_a in soup.find('div', class_='more-city-list').find_all('a'):
city_name_py = soup_a['cityname']
city_id = soup_a['id']
city_name_ch = soup_a.get_text()
city_info_list.append({'name_py': city_name_py, 'id': city_id, 'name_ch': city_name_ch})
print(city_info_list)
else:
print("無法獲取網(wǎng)頁內(nèi)容")
for city_info in city_info_list:
city_id = city_info.get("id")
city_name = city_info.get("name_py")
city_name_ch = city_info.get("name_ch")
print("開始爬取城市" + city_name_ch + "的數(shù)據(jù)")
city_lines_list = []
# 第二步:遍歷城市集合,構(gòu)造每一個城市的 url,并下載數(shù)據(jù)
# 構(gòu)造每個城市的url
url = "http://map.amap.com/service/subway?_1717380520536&srhdata=" + city_id + '_drw_' + city_name + '.json'
res = requests.get(url)
content = res.content.decode('utf-8')
# 將內(nèi)容字符串轉(zhuǎn)換成json對象
content_json = json.loads(content)
# 提取該城市的所有地鐵線list
line_info_list = content_json.get("l")
# 第三步:開始處理每一個地鐵線,提取內(nèi)容到dataframe中
for line_info in line_info_list:
# 地鐵線名字
line_name = line_info["kn"]
# 處理地鐵線站點
df_per_zd = pd.DataFrame(line_info["st"])
df_per_zd = df_per_zd[['n', 'sl', 'poiid', 'sp', 't', 'su', 'sid']]
df_per_zd['gd經(jīng)度'] = df_per_zd['sl'].apply(lambda x: x.split(',')[0])
df_per_zd['gd緯度'] = df_per_zd['sl'].apply(lambda x: x.split(',')[1])
df_per_zd.drop('sl', axis=1, inplace=True)
df_per_zd['路線名稱'] = line_info['ln']
df_per_zd['城市名稱'] = city_name_ch
df_per_zd.rename(columns={"n": "站點名稱", "poiid": "POI編號", "sp": "拼音名稱", "t": "換乘標(biāo)志 1:換乘,0:不可換乘", "su": "su", "sid": "sid編號"}, inplace=True)
# 先將這條地鐵線處理過的dataframe存起來,我們后面給他放到一張表里
city_lines_list.append(df_per_zd)
# 這段代碼就是將地鐵線數(shù)據(jù)列表聚合到一張表里,形成每個城市的地鐵站數(shù)據(jù)
city_subway_data = pd.concat(city_lines_list, ignore_index=True)
# 第四步:將處理好的文件保存為xlsx
city_subway_data.to_excel(city_name_ch + '.xlsx', sheet_name='Sheet1')
到此這篇關(guān)于利用Python requests庫爬取高德地圖全國地鐵站點信息的文章就介紹到這了,更多相關(guān)Python爬取地鐵站點信息內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- Python調(diào)用高德地圖API實現(xiàn)JS網(wǎng)頁地圖顯示的完整代碼示例
- 基于高德地圖API在Python中實現(xiàn)地圖功能的方法示例詳解
- python使用百度或高德地圖獲取地理位置并轉(zhuǎn)換
- Python調(diào)用高德API實現(xiàn)批量地址轉(zhuǎn)經(jīng)緯度并寫入表格的功能
- Python 利用高德地圖api實現(xiàn)經(jīng)緯度與地址的批量轉(zhuǎn)換
- python requests爬取高德地圖數(shù)據(jù)的實例
- Python+PyQt+高德JS?API構(gòu)建桌面三維地形圖應(yīng)用實戰(zhàn)
相關(guān)文章
使用Python自動化生成PPT并結(jié)合LLM生成內(nèi)容的代碼解析
PowerPoint是常用的文檔工具,但手動設(shè)計和排版耗時耗力,本文將展示如何通過 Python 自動化提取 PPT 樣式并生成新 PPT,同時結(jié)合大語言模型(LLM)生成內(nèi)容(如自我介紹文本),實現(xiàn)高效、個性化的 PPT 制作,需要的朋友可以參考下2025-05-05
Python在信息學(xué)競賽中的運用及Python的基本用法(詳解)
下面小編就為大家?guī)硪黄狿ython在信息學(xué)競賽中的運用及Python的基本用法(詳解)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2017-08-08

