2019-04-17 分布式爬虫

2019-04-16  本文已影响0人  一生的远行

服务端 scrapyd

1 环境安装

sudo apt update -y 
sudo apt install  -y build-essential libssl-dev libffi-dev libxml2 libxml2-dev libxslt1-dev zlib1g-dev python-dev
sudo pip install -y scrapy redis python_redis pymongo scrapyd 

2 配置

find / -name scrapyd

bind 0.0.0.0

3 运行

scrapyd

客户端 scrapyd-client

1 web端查看

http://localhost:6800

2 打包上传

 scrapyd-deploy

3 调度

curl http://localhost:6800/schedule.json -d project=zhihuuser -d spider=zhihu

4 取消

curl http:/localhost:6800/cancel.json -d project=zhihuuser -d job=51e8b2c0602011e9b97c000c2989fdcb
上一篇 下一篇

猜你喜欢

热点阅读