異步任務(wù)隊列Celery在Django中的使用方法
前段時間在Django Web平臺開發(fā)中,碰到一些請求執(zhí)行的任務(wù)時間較長(幾分鐘),為了加快用戶的響應(yīng)時間,因此決定采用異步任務(wù)的方式在后臺執(zhí)行這些任務(wù)。在同事的指引下接觸了Celery這個異步任務(wù)隊列框架,鑒于網(wǎng)上關(guān)于Celery和Django結(jié)合的文檔較少,大部分也只是粗粗介紹了大概的流程,在實踐過程中還是遇到了不少坑,希望記錄下來幫助有需要的朋友。
一、Django中的異步請求
Django Web中從一個http請求發(fā)起,到獲得響應(yīng)返回html頁面的流程大致如下:http請求發(fā)起 -- http handling(request解析) -- url mapping(url正則匹配找到對應(yīng)的View) -- 在View中進行邏輯的處理、數(shù)據(jù)計算(包括調(diào)用Model類進行數(shù)據(jù)庫的增刪改查)--將數(shù)據(jù)推送到template,返回對應(yīng)的template/response。

圖1. Django架構(gòu)總覽
同步請求:所有邏輯處理、數(shù)據(jù)計算任務(wù)在View中處理完畢后返回response。在View處理任務(wù)時用戶處于等待狀態(tài),直到頁面返回結(jié)果。
異步請求:View中先返回response,再在后臺處理任務(wù)。用戶無需等待,可以繼續(xù)瀏覽網(wǎng)站。當任務(wù)處理完成時,我們可以再告知用戶。
二、關(guān)于Celery
Celery是基于Python開發(fā)的一個分布式任務(wù)隊列框架,支持使用任務(wù)隊列的方式在分布的機器/進程/線程上執(zhí)行任務(wù)調(diào)度。

圖2. Celery架構(gòu)
圖2展示的是Celery的架構(gòu),它采用典型的生產(chǎn)生-消費者模式,主要由三部分組成:broker(消息隊列)、workers(消費者:處理任務(wù))、backend(存儲結(jié)果)。實際應(yīng)用中,用戶從Web前端發(fā)起一個請求,我們只需要將請求所要處理的任務(wù)丟入任務(wù)隊列broker中,由空閑的worker去處理任務(wù)即可,處理的結(jié)果會暫存在后臺數(shù)據(jù)庫backend中。我們可以在一臺機器或多臺機器上同時起多個worker進程來實現(xiàn)分布式地并行處理任務(wù)。
三、Django中Celery的實現(xiàn)
在實際使用過程中,發(fā)現(xiàn)在Celery在Django里的實現(xiàn)與其在一般.py文件中的實現(xiàn)還是有很大差別,Django有其特定的使用Celery的方式。這里著重介紹Celery在Django中的實現(xiàn)方法,簡單介紹與其在一般.py文件中實現(xiàn)方式的差別。
1. 建立消息隊列
首先,我們必須擁有一個broker消息隊列用于發(fā)送和接收消息。Celery官網(wǎng)給出了多個broker的備選方案:RabbitMQ、Redis、Database(不推薦)以及其他的消息中間件。在官網(wǎng)的強力推薦下,我們就使用RabbitMQ作為我們的消息中間人。在Linux上安裝的方式如下:
sudo apt-get install rabbitmq-server
命令執(zhí)行成功后,rabbitmq-server就已經(jīng)安裝好并運行在后臺了。
另外也可以通過命令rabbitmq-server來啟動rabbitmq server以及命令rabbitmqctl stop來停止server。
更多的命令可以參考rabbitmq官網(wǎng)的用戶手冊:https://www.rabbitmq.com/manpages.html
2. 安裝django-celery
pip install celery pip install django-celery
3. 配置settings.py
首先,在Django工程的settings.py文件中加入如下配置代碼:
import djcelery djcelery.setup_loader() BROKER_URL= 'amqp://guest@localhost//' CELERY_RESULT_BACKEND = 'amqp://guest@localhost//'
其中,當djcelery.setup_loader()運行時,Celery便會去查看INSTALLD_APPS下包含的所有app目錄中的tasks.py文件,找到標記為task的方法,將它們注冊為celery task。BROKER_URL和CELERY_RESULT_BACKEND分別指代你的Broker的代理地址以及Backend(result store)數(shù)據(jù)存儲地址。在Django中如果沒有設(shè)置backend,會使用其默認的后臺數(shù)據(jù)庫用來存儲數(shù)據(jù)。注意,此處backend的設(shè)置是通過關(guān)鍵字CELERY_RESULT_BACKEND來配置,與一般的.py文件中實現(xiàn)celery的backend設(shè)置方式有所不同。一般的.py中是直接通過設(shè)置backend關(guān)鍵字來配置,如下所示:
app = Celery('tasks', backend='amqp://guest@localhost//', broker='amqp://guest@localhost//')
然后,在INSTALLED_APPS中加入djcelery:
INSTALLED_APPS = ( …… 'qv', 'djcelery' …… )
4. 在要使用該任務(wù)隊列的app根目錄下(比如qv),建立tasks.py,比如:

在tasks.py中我們就可以編碼實現(xiàn)我們需要執(zhí)行的任務(wù)邏輯,在開始處import task,然后在要執(zhí)行的任務(wù)方法開頭用上裝飾器@task。需要注意的是,與一般的.py中實現(xiàn)celery不同,tasks.py必須建在各app的根目錄下,且不能隨意命名。
5. 生產(chǎn)任務(wù)
在需要執(zhí)行該任務(wù)的View中,通過build_job.delay的方式來創(chuàng)建任務(wù),并送入消息隊列。比如:

6. 啟動worker的命令
#先啟動服務(wù)器 python manage.py runserver #再啟動worker python manage.py celery worker -c 4 --loglevel=info
四、補充
Django下要查看其他celery的命令,包括參數(shù)配置、啟動多worker進程的方式都可以通過python manage.py celery --help來查看:

另外,Celery提供了一個工具flower,將各個任務(wù)的執(zhí)行情況、各個worker的健康狀態(tài)進行監(jiān)控并以可視化的方式展現(xiàn),如下圖所示:

Django下實現(xiàn)的方式如下:
1. 安裝flower:
pip install flower
2. 啟動flower(默認會啟動一個webserver,端口為5555):
python manage.py celery flower
3. 進入http://localhost:5555即可查看。
以上就是本文的全部內(nèi)容,希望對大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
Python獲取excel內(nèi)容及相關(guān)操作代碼實例
這篇文章主要介紹了Python獲取excel內(nèi)容及相關(guān)操作代碼實例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友可以參考下2020-08-08
Python使用pyinstaller打包成.exe文件執(zhí)行后閃退的圖文解決辦法
這篇文章主要給大家介紹了關(guān)于Python使用pyinstaller打包成.exe文件執(zhí)行后閃退的圖文解決辦法,閃退問題通常是由于程序運行過程中出現(xiàn)了未處理的異常或錯誤,導(dǎo)致程序崩潰,文中通過圖文介紹的非常詳細,需要的朋友可以參考下2023-12-12

