scrapinghub 部署scrapy爬虫
2017-07-20 本文已影响54人
童蒙vlog
请首先注册scrapinghub,参见以下两篇文章:
未读完以上两篇文章请勿往下看!
如果安装了第三方库,请在scrapy根目录下,引入requirements.txt
PyMySQL==0.7.11
lxml==3.7.3
pyOpenSSL==17.0.0
如果你用的是python3版本,请对scrapinghub.yml
做如下修改
projects:
default: your-project-id # your-project-id为项目id
stacks:
default: scrapy:1.1-py3 # 这个注意,如果是python2.7 则写成scrapy:1.1
requirements_file: requirements.txt #第三方库时引用
2.每次修改都需要重新部署到scrapinghub:
shub deploy ProjectID