Python爬虫构建

2021-10-25  本文已影响0人  LK丶猪在飞

1.环境搭建

1.1 虚拟机安装

豆瓣源安装提速:
pip install -i https://pypi.doubanio.com/simple **

1.2 配置虚拟环境

2.爬虫项目

2.1 创建并进入虚拟机

mkvirtualenv --python=/usr/bin/python3 py3scrapy

2.2 安装框架

使用豆瓣源安装scrapy
pip install -i https://pypi.doubanio.com/simple scrapy

若报import错误:

  1. 进入 https://www.lfd.uci.edu/~gohlke/pythonlibs/
  2. 查找所缺失的包并下载
  3. 安装 pip install *.whl

2.3 创建Scrapy工程

  1. 进入虚拟环境 workon py3scrapy
  2. 创建工程 scrapy startproject articleSpider
  3. 生成模版 scrapy genspider hbut hbut.91wllm.com

生成项目结构如下:


目录结构.png

3.自动运行

3.1 使用Timer

首先在scrapy.cfg同级目录下新建main.py

import os
from scrapy.cmdline import execute
import sys
import schedule
import time

sys.path.append(os.path.dirname(os.path.abspath(__file__)))

//使用timer
 while True:
    os.system("scrapy crawl hbut")
    time.sleep(60) //每60秒运行一次

3.2 使用Schedule

import os
from scrapy.cmdline import execute
import sys
import schedule
import time

sys.path.append(os.path.dirname(os.path.abspath(__file__)))

//使用schedule 需安装
 def job():
     print("I'm working...")
     os.system("scrapy crawl hbut")

// 每10分钟执行
 schedule.every(10).minutes.do(job)
// 每一小时执行
schedule.every().hour.do(job)
// 每天15:58分执行
 schedule.every().day.at("15:58").do(job)
// 每周一的当前时间执行
 schedule.every().monday.do(job)
// 每周三13:15执行
 schedule.every().wednesday.at("13:15").do(job);

 while True:
     schedule.run_pending()
     time.sleep(1)

3.3 使用Crontab

#! /bin/sh          
export PATH=$PATH:/usr/local/bin
cd /home/testCron
nohup scrapy crawl example >> example.log 2>&1 &

crontab的常见格式:


crontab格式.png

4.运行所有爬虫

1.在spiders目录的同级目录下创建一个commands目录,并在该目录中创建一个crawlall.py,将scrapy源代码里的commands文件夹里的crawl.py源码复制过来,只修改run()方法即可:

def run(self, args, opts):
        # 获取爬虫列表
        spd_loader_list = self.crawler_process.spider_loader.list()
        print(spd_loader_list)

        # 遍历爬虫
        for name in spd_loader_list or args:
            self.crawler_process.crawl(name, **opts.spargs)
            print(name)

        self.crawler_process.start()

还得在里面加个init.py文件,目录结构如下:

目录结构.png
  1. settings.py配置文件还需要加一条。

COMMANDS_MODULE = '项目名称.目录名称'

COMMANDS_MODULE='articleSpider.commands'
  1. 执行
cmdline.execute("scrapy crawlall".split())
上一篇 下一篇

猜你喜欢

热点阅读