python3.6使用scrapyd与gerapy管理爬虫

2019-11-26  本文已影响0人  Py_Explorer

正常的管控scrapy框架的爬虫是很简单的,当爬虫很少的时候是很好处理的,但是当爬虫量级达到上百个甚至更多的时候,一个一个的处理就很麻烦了,所以才有了scrapyd和gerapy。
环境:win10,python3.6, scrapy-1.7.4

1. 安装scrapyd与gerapy

python3 -m pip install scrapyd
python3 -m pip install scrapyd-client
python3 -m pip install gerapy

安装完成之后,在python36的Script目录下出现(如下图)

image.png

2. 运行scrapyd

在命令提示符[cmd]直接输入scrapyd,如果和python2有冲突,可直接切换到到python3的Scripts目录中运行scrapyd.exe


image.png

然后浏览器访问 http://127.0.0.1:6800即可


image.png

3. 管理scrapy

4. gerapy管理爬虫

第一:点击client--->create
第二:name随便填写,IP:为scrapyd的IP为127.0.0.1,PORT:端口为scrapyd的端口为6800
第三:点击创建即可。会弹出save successfully。

上一篇 下一篇

猜你喜欢

热点阅读