如何在django中運(yùn)行scrapy框架
1.新建一個(gè)django項(xiàng)目,
2.前端展示一個(gè)按鈕
<form action="/start/" method="POST"> {% csrf_token %} <input type="submit" value="啟動(dòng)爬蟲"> </form>
3.在django項(xiàng)目的根目錄創(chuàng)建scrapy項(xiàng)目
4.cmd命令行運(yùn)行:scrapyd 啟動(dòng)服務(wù)
5.將scrapy項(xiàng)目部署到當(dāng)前工程:scrapyd-deploy 爬蟲名稱 -p 項(xiàng)目名稱
6.views.py
# 首頁 def index(request): return render(request,'index.html',locals()) def start(request): if request.method == 'POST': # 啟動(dòng)爬蟲 url = 'http://localhost:6800/schedule.json' data = {'project': 'ABCkg', 'spider': 'abckg'} print(requests.post(url=url, data=data)) return JsonResponse({'result':'ok'})
7.在本地6800端口點(diǎn)擊jobs當(dāng)前爬蟲項(xiàng)目就在運(yùn)行了。
8.寫一個(gè)按鈕,點(diǎn)擊停止scrapy爬蟲
def stop(request): if request.method == 'POST': # 停止爬蟲 url = 'http://127.0.0.1:6800/cancel.json' data={"project":'ABCkg','job':'b7fe64ee7ad711e9b711005056c00008'} print(requests.post(url=url, data=data)) return JsonResponse({'result':'stop'})
總結(jié):
----------------scrapyd 管理----------------------
1、獲取狀態(tài)
http://127.0.0.1:6800/daemonstatus.json
2、獲取項(xiàng)目列表
http://127.0.0.1:6800/listprojects.json
3、獲取項(xiàng)目下已發(fā)布的爬蟲列表
http://127.0.0.1:6800/listspiders.json?project=myproject
4、獲取項(xiàng)目下已發(fā)布的爬蟲版本列表
http://127.0.0.1:6800/listversions.json?project=myproject
5、獲取爬蟲運(yùn)行狀態(tài)
http://127.0.0.1:6800/listjobs.json?project=myproject
6、啟動(dòng)服務(wù)器上某一爬蟲(必須是已發(fā)布到服務(wù)器的爬蟲)
http://localhost:6800/schedule.json
(post方式,data={"project":myproject,"spider":myspider})
7、刪除某一版本爬蟲
http://127.0.0.1:6800/delversion.json -d project=項(xiàng)目名 -d versions
(post方式,data={"project":myproject,"version":myversion})
8、刪除某一工程,包括該工程下的各版本爬蟲
http://127.0.0.1:6800/delproject.json
(post方式,data={"project":myproject})
9、取消爬蟲
http://127.0.0.1:6800/cancel.json
(post方式,data={"project":myproject,'job':myjob})
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
- 詳解Python網(wǎng)絡(luò)框架Django和Scrapy安裝指南
- Python Scrapy框架:通用爬蟲之CrawlSpider用法簡單示例
- scrapy數(shù)據(jù)存儲(chǔ)在mysql數(shù)據(jù)庫的兩種方式(同步和異步)
- python爬蟲庫scrapy簡單使用實(shí)例詳解
- Scrapy框架實(shí)現(xiàn)的登錄網(wǎng)站操作示例
- python3 Scrapy爬蟲框架ip代理配置的方法
- VirtualBox CentOS7.7.1908 Python3.8 搭建Scrapy開發(fā)環(huán)境【圖文教程】
- python scrapy爬蟲代碼及填坑
相關(guān)文章
python 實(shí)現(xiàn)方陣的對角線遍歷示例
今天小編就為大家分享一篇python 實(shí)現(xiàn)方陣的對角線遍歷示例,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-11-11tensorflow 實(shí)現(xiàn)自定義layer并添加到計(jì)算圖中
今天小編就為大家分享一篇tensorflow 實(shí)現(xiàn)自定義layer并添加到計(jì)算圖中,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-02-02淺談在django中使用filter()(即對QuerySet操作)時(shí)踩的坑
這篇文章主要介紹了淺談在django中使用filter()(即對QuerySet操作)時(shí)踩的坑,具有很好的參考價(jià)值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-03-03Python 正則表達(dá)式中re.group()使用小結(jié)
正則表達(dá)式是在處理字符串時(shí)非常有用的工具,而re.group()是在匹配到的文本中提取特定分組內(nèi)容的方法之一,這篇文章主要介紹了Python 正則表達(dá)式之re.group()用法,需要的朋友可以參考下2024-01-01Python實(shí)現(xiàn)Smtplib發(fā)送帶有各種附件的郵件實(shí)例
本篇文章主要介紹了Python實(shí)現(xiàn)Smtplib發(fā)送帶有各種附件的郵件實(shí)例,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2017-06-0610招!看骨灰級(jí)Pythoner玩轉(zhuǎn)Python的方法
這篇文章主要介紹了10招!看骨灰級(jí)Pythoner如何玩轉(zhuǎn)Python,需要的朋友可以參考下2019-04-04PyQt5 designer 頁面點(diǎn)擊按鈕跳轉(zhuǎn)頁面實(shí)現(xiàn)
本文主要介紹了PyQt5 designer 頁面點(diǎn)擊按鈕跳轉(zhuǎn)頁面實(shí)現(xiàn),文中通過示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-01-01python神經(jīng)網(wǎng)絡(luò)AlexNet分類模型訓(xùn)練貓狗數(shù)據(jù)集
這篇文章主要為大家介紹了python神經(jīng)網(wǎng)絡(luò)AlexNet分類模型訓(xùn)練貓狗數(shù)據(jù)集,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-05-05