python爬蟲獲取新浪新聞教學
一提到python,大家經(jīng)常會提到爬蟲,爬蟲近來興起的原因我覺得主要還是因為大數(shù)據(jù)的原因,大數(shù)據(jù)導致了我們的數(shù)據(jù)不在只存在于自己的服務器,而python語言的簡便也成了爬蟲工具的首要語言,我們這篇文章來講下爬蟲,爬取新浪新聞
1、大家知道,爬蟲實際上就是模擬瀏覽器請求,然后把請求到的數(shù)據(jù),經(jīng)過我們的分析,提取出我們想要的內(nèi)容,這也就是爬蟲的實現(xiàn)大家知道,爬蟲實際上就是模擬瀏覽器請求,然后把請求到的數(shù)據(jù),經(jīng)過我們的分析,提取出我們想要的內(nèi)容,這也就是爬蟲的實現(xiàn)
2、首先,我們要寫爬蟲,可以借鑒一些工具,我們先從簡單的入門,首先說到請求,我們就會想到python中,非常好用的requests,然后說到分析解析就會用到bs4,然后我們可以直接用pip命令來實現(xiàn)安裝,假如安裝的是python3,也可以用pip3
3、安裝好這兩個類庫之后,然后我們就可以先請求數(shù)據(jù),查看下新聞的內(nèi)容,這個時候我們有可能看到的是亂碼
4、怎么處理亂碼呢?我們可以拿瀏覽器打開網(wǎng)頁,右鍵查看網(wǎng)頁源代碼,我們可以看到編碼格式為utf-8
5、然后我們在輸出的時候添加編碼格式,就可以查看到正確編碼的數(shù)據(jù)了
6、拿到數(shù)據(jù)之后,我們需要先分析數(shù)據(jù),看我們想要的數(shù)據(jù)在哪里,我們打開瀏覽器,右鍵審查,然后按示例圖操作,就可以看到我們新聞所在的標簽,假如是windows系統(tǒng),選擇開發(fā)中工具里面一樣
7、我們知道屬于哪個標簽之后,就是用bs4來解析拿到我們想要的數(shù)據(jù)了
8、我們想要拿到新聞的具體標題,時間,地址,就需要我們在對元素進行深入的解析,我們還是按之前的方法,找到標題所在的標簽
9、然后我們編寫標題時間地址的python程序,就可以爬取出對應的標題內(nèi)容,時間和地址
10、簡單的python爬取新聞就講到這里啦
總結:以上就是關于Python爬蟲獲取新浪新聞內(nèi)容的步驟,感謝大家的的閱讀和對腳本之家的支持。
相關文章
Python基礎globlal nonlocal和閉包函數(shù)裝飾器語法糖
這篇文章主要為大家介紹了Python基礎globlal nonlocal和閉包函數(shù)裝飾器語法糖示例詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2022-11-11Python3之外部文件調用Django程序操作model等文件實現(xiàn)方式
這篇文章主要介紹了Python3之外部文件調用Django程序操作model等文件實現(xiàn)方式,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-04-04python基于socket實現(xiàn)的UDP及TCP通訊功能示例
這篇文章主要介紹了python基于socket實現(xiàn)的UDP及TCP通訊功能,結合實例形式分析了基于Python socket模塊的UDP及TCP通信相關客戶端、服務器端實現(xiàn)技巧,需要的朋友可以參考下2019-11-11python中使用pymssql庫操作MSSQL數(shù)據(jù)庫
這篇文章主要給大家介紹了關于python中使用pymssql庫操作MSSQL數(shù)據(jù)庫的相關資料,最近在學習python,發(fā)現(xiàn)好像沒有對pymssql的詳細說明,于是乎把官方文檔學習一遍,重要部分做個歸檔,方便以后查閱,需要的朋友可以參考下2023-08-08在Mac中PyCharm配置python Anaconda環(huán)境過程圖解
這篇文章主要介紹了在Mac中PyCharm配置python Anaconda環(huán)境過程圖解,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-03-03