如何用python爬取微博熱搜數(shù)據(jù)并保存
主要用到requests和bf4兩個庫
將獲得的信息保存在d://hotsearch.txt下
import requests; import bs4 mylist=[] r = requests.get(url='https://s.weibo.com/top/summary?Refer=top_hot&topnav=1&wvr=6',timeout=10) print(r.status_code) # 獲取返回狀態(tài) r.encoding=r.apparent_encoding demo = r.text from bs4 import BeautifulSoup soup = BeautifulSoup(demo,"html.parser") for link in soup.find('tbody') : hotnumber='' if isinstance(link,bs4.element.Tag): # print(link('td')) lis=link('td') hotrank=lis[1]('a')[0].string#熱搜排名 hotname=lis[1].find('span')#熱搜名稱 if isinstance(hotname,bs4.element.Tag): hotnumber=hotname.string#熱搜指數(shù) pass mylist.append([lis[0].string,hotrank,hotnumber,lis[2].string]) f=open("d://hotsearch.txt","w+") for line in mylist: f.write('%s %s %s %s\n'%(line[0],line[1],line[2],line[3]))
知識點擴展:利用python爬取微博熱搜并進行數(shù)據(jù)分析
爬取微博熱搜
import schedule import pandas as pd from datetime import datetime import requests from bs4 import BeautifulSoup url = "https://s.weibo.com/top/summary?cate=realtimehot&sudaref=s.weibo.com&display=0&retcode=6102" get_info_dict = {} count = 0 def main(): global url, get_info_dict, count get_info_list = [] print("正在爬取數(shù)據(jù)~~~") html = requests.get(url).text soup = BeautifulSoup(html, 'lxml') for tr in soup.find_all(name='tr', class_=''): get_info = get_info_dict.copy() get_info['title'] = tr.find(class_='td-02').find(name='a').text try: get_info['num'] = eval(tr.find(class_='td-02').find(name='span').text) except AttributeError: get_info['num'] = None get_info['time'] = datetime.now().strftime("%Y/%m/%d %H:%M") get_info_list.append(get_info) get_info_list = get_info_list[1:16] df = pd.DataFrame(get_info_list) if count == 0: df.to_csv('datas.csv', mode='a+', index=False, encoding='gbk') count += 1 else: df.to_csv('datas.csv', mode='a+', index=False, header=False, encoding='gbk') # 定時爬蟲 schedule.every(1).minutes.do(main) while True: schedule.run_pending()
pyecharts數(shù)據(jù)分析
import pandas as pd from pyecharts import options as opts from pyecharts.charts import Bar, Timeline, Grid from pyecharts.globals import ThemeType, CurrentConfig df = pd.read_csv('datas.csv', encoding='gbk') print(df) t = Timeline(init_opts=opts.InitOpts(theme=ThemeType.MACARONS)) # 定制主題 for i in range(int(df.shape[0]/15)): bar = ( Bar() .add_xaxis(list(df['title'][i*15: i*15+15][::-1])) # x軸數(shù)據(jù) .add_yaxis('num', list(df['num'][i*15: i*15+15][::-1])) # y軸數(shù)據(jù) .reversal_axis() # 翻轉(zhuǎn) .set_global_opts( # 全局配置項 title_opts=opts.TitleOpts( # 標題配置項 title=f"{list(df['time'])[i * 15]}", pos_right="5%", pos_bottom="15%", title_textstyle_opts=opts.TextStyleOpts( font_family='KaiTi', font_size=24, color='#FF1493' ) ), xaxis_opts=opts.AxisOpts( # x軸配置項 splitline_opts=opts.SplitLineOpts(is_show=True), ), yaxis_opts=opts.AxisOpts( # y軸配置項 splitline_opts=opts.SplitLineOpts(is_show=True), axislabel_opts=opts.LabelOpts(color='#DC143C') ) ) .set_series_opts( # 系列配置項 label_opts=opts.LabelOpts( # 標簽配置 position="right", color='#9400D3') ) ) grid = ( Grid() .add(bar, grid_opts=opts.GridOpts(pos_left="24%")) ) t.add(grid, "") t.add_schema( play_interval=1000, # 輪播速度 is_timeline_show=False, # 是否顯示 timeline 組件 is_auto_play=True, # 是否自動播放 ) t.render('時間輪播圖.html')
到此這篇關(guān)于如何用python爬取微博熱搜數(shù)據(jù)并保存的文章就介紹到這了,更多相關(guān)python爬取微博熱搜數(shù)據(jù)內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
Python插件virtualenv搭建虛擬環(huán)境
這篇文章主要為大家詳細介紹了Python插件virtualenv搭建虛擬環(huán)境,具有一定的參考價值,感興趣的小伙伴們可以參考一下2017-11-11淺談pytorch中stack和cat的及to_tensor的坑
這篇文章主要介紹了pytorch中stack和cat的及to_tensor的坑,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教2021-05-05基于python解析XML文件并將數(shù)據(jù)存儲到MongoDB的代碼示例
在軟件開發(fā)中,我們經(jīng)常需要處理各種格式的數(shù)據(jù),XML 是一種常用的數(shù)據(jù)交換格式,它可以存儲和傳輸結(jié)構(gòu)化數(shù)據(jù),很多網(wǎng)站會提供 XML 格式的數(shù)據(jù)接口,以便其他系統(tǒng)可以方便地獲取數(shù)據(jù),本文介紹了基于python解析XML文件并將數(shù)據(jù)存儲到MongoDB的代碼示例,需要的朋友可以參考下2024-06-06caffe的python接口生成配置文件學(xué)習(xí)
這篇文章主要介紹了caffe的python接口生成配置文件學(xué)習(xí),有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-06-06Python基于隨機采樣一至性實現(xiàn)擬合橢圓(優(yōu)化版)
這篇文章主要對上一版的Python基于隨機采樣一至性實現(xiàn)擬合橢圓的優(yōu)化,文中的示例代碼講解詳細,具有一定的借鑒價值,感興趣的可以了解一下2022-11-11