实现通用爬虫

2019-01-04  本文已影响0人  小袋鼠cf

创建爬虫文件的方式
scrapy genspider -t crawl 爬虫文件名 域

爬虫文件继承的类CrawlSpider

rules:里面存放的是rule的对像(元组或者列表)

Rule:自定义提取规则,提取到的url,回自动构建request对像,
设置回调函数解析相应结果,设置是否需要跟进(进一步提取url连接)
process_links:拦截rule规则提取的url,返回的是一个列表,列表存放的是link对象

LinkExtractor:是一个对象,设置提取url的规则

注意:rules中如果没有设置callback回调,follow默认为true
注意:一定不要去实现parse方法
注意:要想处理起始url的相应结果,需要重写parse_start_url方法

什么时候适合使用crawlspider?
一般网页结构比较简单,页面大多是静态页面

上一篇下一篇

猜你喜欢

热点阅读