林梓技术分享集

scrapinghub 部署scrapy爬虫

2017-07-20  本文已影响54人  童蒙vlog

请首先注册scrapinghub,参见以下两篇文章:

未读完以上两篇文章请勿往下看!

如果安装了第三方库,请在scrapy根目录下,引入requirements.txt

PyMySQL==0.7.11
lxml==3.7.3
pyOpenSSL==17.0.0

如果你用的是python3版本,请对scrapinghub.yml做如下修改

projects:
    default: your-project-id  # your-project-id为项目id
stacks:
    default: scrapy:1.1-py3 # 这个注意,如果是python2.7 则写成scrapy:1.1
requirements_file: requirements.txt  #第三方库时引用

2.每次修改都需要重新部署到scrapinghub:

shub deploy ProjectID
上一篇下一篇

猜你喜欢

热点阅读