Scrapy同时启动多个爬虫

2018-11-01  本文已影响0人  艾胖胖胖

一、背景环境

操作系统:Win10
Python版本:Python3.6
Scrapy版本:Scrapy1.5.1

二、多爬虫同时启动

首先在我们的项目里面创建一个commands文件夹用来存放我们等下需要开启多爬虫同时启动的文件

from scrapy.commands import ScrapyCommand


class Command(ScrapyCommand):
    requires_project = True

    def syntax(self):
        return '[options]'

    def short_desc(self):
        return 'Runs all of the spiders'

    def run(self, args, opts):
        spider_list = self.crawler_process.spiders.list()
        for name in spider_list:
            self.crawler_process.crawl(name, **opts.__dict__)
        self.crawler_process.start()

scrapy crawlall
上一篇下一篇

猜你喜欢

热点阅读