xinhao 2020-06-09
celery是一个基于分布式消息传输的异步任务队列,它专注于实时处理,同时也支持任务调度。它的执行单元为任务(task),利用多线程,如Eventlet,gevent等,它们能被并发地执行在单个或多个职程服务器(worker servers)上。任务能异步执行(后台运行)或同步执行(等待任务完成)。
在生产系统中,celery能够一天处理上百万的任务。它的完整架构图如下:
组件介绍:
它的基本工作就是管理分配任务到不同的服务器,并且取得结果。至于说服务器之间是如何进行通信的?这个Celery本身不能解决。所以,RabbitMQ作为一个消息队列管理工具被引入到和Celery集成,负责处理服务器之间的通信任务。和rabbitmq的关系只是在于,celery没有消息存储功能,他需要介质,比如rabbitmq、redis、mysql、mongodb 都是可以的。推荐使用rabbitmq,他的速度和可用性都很高。
1、安装celery
pip install celery
2、查看完整可用命令选项
celery worker --help
3、创建一个工程项目project,然后再项目内创建一个celery_tasks异步任务列表。如图:
4、首先是celery_tasks异步任务主程序main.py,代码如下:
from celery import Celery # 生成celery应用 celery_app = Celery("caicai") # 加载配置文件 celery_app.config_from_object(‘celery_tasks.config‘) # 注册任务 celery_app.autodiscover_tasks([‘celery_tasks.email‘]) # 注意:传递的参数是任务列表
分析一下这个程序:
5、接着是配置文件config.py,代码如下:
BROKER_URL = ‘redis://localhost:6379/1‘ # 使用Redis作为消息代理 CELERY_RESULT_BACKEND = ‘redis://localhost:6379/0‘ # 把任务结果存在了Redis # CELERY_TASK_SERIALIZER = ‘msgpack‘ # 任务序列化和反序列化使用msgpack方案 CELERY_RESULT_SERIALIZER = ‘json‘ # 读取任务结果一般性能要求不高,所以使用了可读性更好的JSON CELERY_TASK_RESULT_EXPIRES = 60 * 60 * 24 # celery任务结果有效期 CELERY_ACCEPT_CONTENT = [‘json‘, ‘msgpack‘] # 指定接受的内容类型 CELERY_TIMEZONE = ‘Asia/Shanghai‘ # celery使用的时区 CELERY_ENABLE_UTC = True # 启动时区设置 CELERYD_LOG_FILE = "/var/log/celery/celery.log" # celery日志存储位置
6、创建email目录,目录下创建tesks.py文件用来编写发送邮件的代码,代码如下:
import time from celery_tasks.main import celery_app @celery_app.task(name=‘seed_email‘) # 添加celery_app.task这个装饰器,指定该任务的任务名name=‘seed_email‘ def seed(): time.sleep(1) return "我将发送邮件"
7、在项目app.py中,采用delay()用来调用任务。
from celery_tasks.email.tasks import seed seed.delay() seed.delay() seed.delay() seed.delay() seed.delay()
8、项目运行
首先,我们需要启动redis。接着,切换至proj项目所在目录,并运行命令:
celery -A celery_tasks.main worker -l info
界面如下:
然后,我们运行app.py,app.py调用添加异步任务,输出的结果如下: