异步任务队列Celery在Django中的使用
一 Django中的异步请求
Django Web中从一个http请求发起,到获得相应返回html页面流程大致如下:
1 http请求发起
2 http handing(request解析)
3 url mapping(url正则匹配找到对应的View)
4 在View中进行逻辑的处理,数据计算(包括调用Model类进行数据库的增删改查)
5 将数据推送到template,返回对应的template/response
同步请求:
所有逻辑处理,数据计算任务在View中处理完毕后返回response.在View处理任务时用户处于等待状态,值直到页面返回结果
异步请求:
View中先返回response,再在后台处理任务。用户无需等待,可以继续浏览网站,任务玩车该时,我们再告知用户
二 关于celery
Celery时基于Python开发的一个分布式任务队列框架,支持使用任务队列的方式在分布的机器/进程/线程上执行任务调度
Celery架构1 建立消息队列
首先,我们必须拥有一个broker消息队列用于发送和接受消息。Celery官网提出了多个broker选择方案,RabbitMQ、Redis、Database(不推荐)以及其他的消息中间件。
我们就使用RabbitMQ作为我们的消息中间人。在Linux上安装的方式如下:
sudo apt-get install rabbitmq-server
可以通过命令rabbitmq-server来启动rabbitmq server以及命令rabbitmqctl stop来停止server
2 安装Django-celery
pip install celery
pip install django-celery
3 配置settings.py
首先,在settings.py中计入如下代码:
import djcelery
djcelery.setup_loader()
BROKER_URL='amqp://guest@localhost//'
CELERY_RESULT_BACKEND ='amqp://guest@localhost//'
其中,当djcelery.setup_loader()运行时,Celery便会去查看INSTALLD_APPS下包含的所有app目录中的tasks.py文件,找到标记为task的方法,将它们注册为celery task。BROKER_URL和CELERY_RESULT_BACKEND分别指代你的Broker的代理地址以及Backend(result store)数据存储地址。在Django中如果没有设置backend,会使用其默认的后台数据库用来存储数据。注意,此处backend的设置是通过关键字CELERY_RESULT_BACKEND来配置
然后,在INSTALLED_APPS中加入djcelery:
INSTALL_APPS =(
'app1',
'djcelery'
)
4 在要使用该任务队列的app根目录下(比如app1),建立tasks.py文件,比如:
在tasks.py中我们就可以编码实现我们需要执行的任务逻辑,在开始处import task,然后在要执行的任务方法开头用上装饰器@task5 生产任务
在需要执行该任务的View中,通过build_job.delay的方法来创建任务,并送入消息队列,比如:
6 启动worker的命令
python manage.py runserver #先启动服务器
python manage.py celery worker -c 4 --loglevel=info #再启动worker
补充:Django下可通过 python manage.py celery -- help 查看celery其他命令
另外,Celery提供了一个工具flower,将各个任务的执行情况、各个worker的健康状态进行监控并以可视化的方式展现,如下图所示:
Django下实现的方式如下:
1安装flower
pip install flower
2 启动flower(默认会启动一个webserver,端口为5555):
python manege.py celery flower
3. 进入http://localhost:5555即可查看。