亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

如何在django中運(yùn)行scrapy框架

 更新時(shí)間:2020年04月22日 14:20:05   作者:小陸同學(xué)  
這篇文章主要介紹了如何在django中運(yùn)行scrapy框架,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下

1.新建一個(gè)django項(xiàng)目,

2.前端展示一個(gè)按鈕

<form action="/start/" method="POST">
    {% csrf_token %}
    <input type="submit" value="啟動(dòng)爬蟲">
</form>

3.在django項(xiàng)目的根目錄創(chuàng)建scrapy項(xiàng)目

4.cmd命令行運(yùn)行:scrapyd 啟動(dòng)服務(wù)

5.將scrapy項(xiàng)目部署到當(dāng)前工程:scrapyd-deploy 爬蟲名稱 -p 項(xiàng)目名稱

6.views.py

# 首頁
def index(request):
  return render(request,'index.html',locals())

def start(request):
  if request.method == 'POST':
    # 啟動(dòng)爬蟲
    url = 'http://localhost:6800/schedule.json'
    data = {'project': 'ABCkg', 'spider': 'abckg'}
    print(requests.post(url=url, data=data))
    return JsonResponse({'result':'ok'})

7.在本地6800端口點(diǎn)擊jobs當(dāng)前爬蟲項(xiàng)目就在運(yùn)行了。

8.寫一個(gè)按鈕,點(diǎn)擊停止scrapy爬蟲

def stop(request):
  if request.method == 'POST':
    # 停止爬蟲
    url = 'http://127.0.0.1:6800/cancel.json'
    data={"project":'ABCkg','job':'b7fe64ee7ad711e9b711005056c00008'}
    print(requests.post(url=url, data=data))
    return JsonResponse({'result':'stop'})

總結(jié):

----------------scrapyd 管理----------------------

1、獲取狀態(tài)

http://127.0.0.1:6800/daemonstatus.json

2、獲取項(xiàng)目列表

http://127.0.0.1:6800/listprojects.json

3、獲取項(xiàng)目下已發(fā)布的爬蟲列表

http://127.0.0.1:6800/listspiders.json?project=myproject

4、獲取項(xiàng)目下已發(fā)布的爬蟲版本列表

http://127.0.0.1:6800/listversions.json?project=myproject

5、獲取爬蟲運(yùn)行狀態(tài)

http://127.0.0.1:6800/listjobs.json?project=myproject

6、啟動(dòng)服務(wù)器上某一爬蟲(必須是已發(fā)布到服務(wù)器的爬蟲)

http://localhost:6800/schedule.json

(post方式,data={"project":myproject,"spider":myspider})

7、刪除某一版本爬蟲

http://127.0.0.1:6800/delversion.json -d project=項(xiàng)目名 -d versions

(post方式,data={"project":myproject,"version":myversion})

8、刪除某一工程,包括該工程下的各版本爬蟲

http://127.0.0.1:6800/delproject.json

(post方式,data={"project":myproject})

9、取消爬蟲

http://127.0.0.1:6800/cancel.json

(post方式,data={"project":myproject,'job':myjob})

以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

最新評(píng)論