java爬虫之webmagic介绍
前言
在自学了一些关于java爬虫的东西之后,我终于正式的接触了webmagic。这个东西怎么说呢?确实是没有jsoup那么好用,这玩意儿科不是轻量级的,因为要使用这个东西需要学更多的东西.例如:xpath语法,xpath轴,正则表达式(这个东西在好多语言中也都存在,但是在这个工具中使用我确实是没想到的,我没想到它还能用来匹配网址),调度语法等等.
开搞
1.开源框架webmagic
webmagic是一个开源的Java爬虫框架,目标是简化爬虫的开发流程,让开发者专注于逻辑功能的开发。webmagic的核心非常简单,但是覆盖爬虫的整个流程,也是很好的学习爬虫开发的材料。
webmagic的主要特色:
完全模块化的设计,强大的可扩展性。
核心简单但是涵盖爬虫的全部流程,灵活而强大,也是学习爬虫入门的好材料。
提供丰富的抽取页面API。
无配置,但是可通过POJO+注解形式实现一个爬虫。
支持多线程。
支持分布式。
支持爬取js动态渲染的页面。
无框架依赖,可以灵活的嵌入到项目中去。
2.架构解析
WebMagic项目代码分为核心和扩展两部分。核心部分(webmagic-core)是一个精简的、模块化的爬虫实现,而扩展部分则包括一些便利的、实用性的功能。扩展部分(webmagic-extension)提供一些便捷的功能,例如注解模式编写爬虫等。同时内置了一些常用的组件,便于爬虫开发。
WebMagic的设计目标是尽量的模块化,并体现爬虫的功能特点。这部分提供非常简单、灵活的API,在基本不改变开发模式的情况下,编写一个爬虫。
WebMagic的结构分为Downloader
、PageProcessor
、Scheduler
、Pipeline
四大组件,并由Spider将它们彼此组织起来。这四大组件对应爬虫生命周期中的下载、处理、管理和持久化等功能。而Spider则将这几个组件组织起来,让它们可以互相交互,流程化的执行,可以认为Spider是一个大的容器,它也是WebMagic逻辑的核心。
Downloader负责从互联网上下载页面,以便后续处理。WebMagic默认使用了ApacheHttpClient作为下载工具。
PageProcessor负责解析页面,抽取有用信息,以及发现新的链接。WebMagic使用Jsoup作为HTML解析工具,并基于其开发了解析XPath的工具Xsoup。
在这四个组件中,PageProcessor对于每个站点每个页面都不一样,是需要使用者定制的部
分。
Scheduler负责管理待抓取的URL,以及一些去重的工作。WebMagic默认提供了JDK的内存队列来管理URL,并用集合来进行去重。也支持使用Redis进行分布式管理。
Pipeline负责抽取结果的处理,包括计算、持久化到文件、数据库等。WebMagic默认提供了“输出到控制台”和“保存到文件”两种结果处理方案。
3.方法介绍
方法 | 说明 | 示例 |
---|---|---|
create(PageProcessor) | 创建Spider | Spider.create(new GithubRepoProcessor()) |
addUrl(String…) | 添加初始的 URL | spider.addUrl("http://webmagic.io/docs/") |
thread(n) | 开启n个线程 | spider.thread(5) |
run() | 启动,会阻塞 当前线程执行 | spider.run() |
start()/runAsync() | 异步启动,当前线程继续执行 | spider.start() |
stop() | 停止爬虫 | spider.stop() |
addPipeline(Pipeline) | 添加一个 Pipeline,一个Spider可以有多个Pipeline | spider .addPipeline(new ConsolePipeline()) |
setScheduler(Scheduler) | 设置Scheduler,一个Spider只能有个一个Scheduler | spider.setScheduler(new RedisScheduler()) |
setDownloader(Downloader) | 设置Downloader,一个Spider只能有个一个Downloader | spider .setDownloader(new SeleniumDownloader()) |
get(String) | 同步调用,并直接取得结果 | ResultItems result = spider.get("http://webmagic.io/docs/") |
getAll(String…) | 同步调用,并直接取得一堆结果 | List results = spider.getAll("http://webmagic.io/docs/","http://webmagic.io/xxx") |
同时Spider的其他组件(Downloader、Scheduler、Pipeline)都可以通过set方法来进行设置。
Page代表了从Downloader下载到的一个页面——可能是HTML,也可能是JSON或者其他文本格式的内容。Page是WebMagic抽取过程的核心对象,它提供一些方法可供抽取、结果保存等。
Site用于定义站点本身的一些配置信息,例如编码、HTTP头、超时时间、重试策略等、代理等,都可以通过设置Site对象来进行配置。
方法 | 说明 | 实例 |
---|---|---|
setCharset(String) | 设置编码 | site.setCharset("utf-8") |
setUserAgent(String) | 设置 UserAgent | site.setUserAgent("Spider") |
setTimeOut(int) | 设置超时时间, 单位是毫秒 | site.setTimeOut(3000) |
setRetryTimes(int) | 设置重试次数 | site.setRetryTimes(3) |
setCycleRetryTimes(int) | 设置循环重试次数 | site.setCycleRetryTimes(3) |
addCookie(String,String) | 添加一条cookie | site.addCookie("dotcomt_user","code4craft") |
setDomain(String) | 设置域名,需设置域名后,addCookie才可生效 | site.setDomain("github.com") |
addHeader(String,String) | 添加一条addHeader | site.addHeader("Referer","https://github.com") |
setHttpProxy(HttpHost) | 设置Http代理 | site.setHttpProxy(new HttpHost("127.0.0.1",8080)) |
4.Pipeline
4.1 ConsolePipeline 控制台输出
4.2 FilePipeline 文件保存
4.3 JsonFilePipelin,以json的格式存储
4.4 定制Pipeline
5.Scheduler
5.1 内存队列 使用setScheduler来设置Scheduler
5.2 文件队列 使用文件保存抓取URL,可以在关闭程序并下次启动时,从之前抓取到的URL继续抓取,创建文件夹E:\schedule
运行后文件夹E:\scheduler会产生两个文件blog.csdn.net.urls.txt和blog.csdn.net.cursor.txt
5.3 Redis队列 使用Redis保存抓取队列,可进行多台机器同时合作抓取,要运行redis服务端
6.XPath语法
6.1 选取节点:
表达式 | 描述 |
---|---|
nodename | 选取此节点的所有子节点。 |
/ | 从根节点选取。 |
// | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。 |
. | 选取当前节点。 |
.. | 选取当前节点的父节点。 |
@ | 选取属性。 |
6.2 谓语
谓语用来查找某个特定的节点或者包含某个指定的值的节点。
谓语被嵌在方括号中
表达式 | 含义 |
---|---|
/bookstore/book[1] | 选取属于 bookstore 子元素的第一个 book 元素。 |
/bookstore/book[last()] | 选取属于 bookstore 子元素的最后一个 book元素。 |
/bookstore/book[last()-1] | 选取属于 bookstore 子元素的倒数第二个book 元素。 |
/bookstore/book[position()<3] | 选取最前面的两个属于 bookstore 元素的子元素的 book 元素。 |
//title[@lang] | 选取所有拥有名为 lang 的属性的 title 元素。 |
//title[@lang='eng'] | 选取所有 title 元素,且这些元素拥有值为 eng的 lang 属性。 |
/bookstore/book[price>35.00] | 选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。 |
/bookstore/book[price>35.00]/title | 选取 bookstore 元素中的 book 元素的所有title 元素,且其中的 price 元素的值须大于35.00。 |
6.3 通配符
XPath 通配符可用来选取未知的 XML 元素,通配指定节点。
表达式 | 描述 | 用法 | 说明 |
---|---|---|---|
* | 匹配任何元素节点 | xpath(/div/*) | 选取div下的所有子节点 |
@* | 匹配任何属性节点 | xpath(/div[@*]) | 选取所有带属性的div节点 |
node() | 匹配任何类型的节点 | xpath(//div[@class=’tb_cls’]).node() | 选择标签为div且类属性为tb_cls的所有标签 |
6.4 多路径选择
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
用法 | 说明 |
---|---|
xpath(//book/title* |*//book/price) | 选取 book 元素的所有 title 和 price 元素。 |
xpath(//title| //price) | 选取文档中的所有 title 和 price 元素 |
6.5 XPath 轴
轴可定义相对于当前节点的节点集。
表达式 | 描述 | 用法 | 说明 |
---|---|---|---|
ancestor | 选取当前节点的所有先辈(父、祖父等) | xpath(//div[@id=’123’]/ancestor::*) | 选择标签为div且ID号为123的所有先辈标签 |
ancestoror-self | 选取当前节点的所有先辈(父、祖父等)以及当前节点本身 | xpath(//div[@id=’123’]/ancestor-orself::*) | 选择标签为div且ID号为123的所有先辈标签且包含自己 |
attribute | 选取当前节点的所有属性 | xpath(//div[@id=’123’]/attribute::class) | 选择标签为div且ID号为123的类属性名称选择标签 |
child | 选取当前节点的所有子元素 | xpath(//div[@id=’123’]/child::book) | 为div且ID号为123的所有子元素的为book节点 |
descendant | 选取当前节点的所有后代元素(子、孙等) | xpath(./descendant::*) | 返回当前节点的所有后代节点(子节点、孙节点) |
following | 选取文档中当前节点结束标签后的所有节点 | xpath(./following::*) | 选取文档中当前节点结束标签后的所有节点 |
parent | 选取当前节点的父节点 | xpath(./parent::*) | 选取当前节点的父节点 |
preceding | 选取文档中当前节点的开始标签之前的所有节点 | xpath(//div[@id=’123’]/preceding::*) | 选择标签为div且ID号为123的开始标签之前的所有节点 |
precedingsibling | 选取当前节点之前的所有同级节点 | xpath(//div[@id=’123’]/precedingsibling::*) | 选择标签为div且ID号为123的之前的所有同级节点 |
self | 选取当前节点 | xpath(./self::*) | 选取当前节点 |
6.6 XPath 运算符
表达式 | 描述 | 用法 | 说明 |
---|---|---|---|
+ | 加法 | 6 + 4 | 10 |
- | 减法 | 6 - 4 | 2 |
* | 乘法 | 6 * 4 | 24 |
div | 除法 | 8 div 4 | 2 |
= | 等于 | price=9.80 | 如果 price 是 9.80,则返回 true。如果price 是 9.90,则返回 false。 |
!= | 不等于 | price!=9.80 | 如果 price 是 9.90,则返回 true。如果price 是 9.80,则返回 false。 |
< | 小于 | price<9.80 | 如果 price 是 9.00,则返回 true。如果price 是 9.90,则返回 false。 |
<= | 小于或等于 | price<=9.80 | 如果 price 是 9.00,则返回 true。如果price 是 9.90,则返回 false。 |
> | 大于 | price>9.80 | 如果 price 是 9.90,则返回 true。如果price 是 9.80,则返回 false。 |
>= | 大于或等于 | price>=9.80 | 如果 price 是 9.90,则返回 true。如果price 是 9.70,则返回 false。 |
or | 或 | price=9.80 or price=9.70 | 如果 price 是 9.80,则返回 true。如果price 是 9.50,则返回 false。 |
and | 与 | price>9.00 and price<9.90 | 如果 price 是 9.80,则返回 true。如果price 是 8.50,则返回 false。 |
mod | 计算除法的余数 | 5 mod 2 | 1 |
6.7 常用的功能函数
使用功能函数能够更好的进行模糊搜索
表达式 | 描述 | 用法 | 说明 |
---|---|---|---|
startswith | 选取id值以ma开头的div节点 | xpath(‘//div[startswith(@id,”ma”)]‘) | 选取id值以ma开头的div节点 |
contains | 选取id值包含ma的div节点 | xpath(‘//div[contains(@id,”ma”)]‘) | 选取id值包含ma的div节点 |
and | 选取id值包含ma和in的div节点 | xpath(‘//div[contains(@id,”ma”) and contains(@id,”in”)]‘) | 选取id值包含ma和in的div节点 |
text() | 选取节点文本包含ma的div节点 | xpath(‘//div[contains(text(),”ma”)]‘) | 选取节点文本包含ma的div节点 |
7.Selectable
方法 | 说明 | 示例 |
---|---|---|
xpath(String xpath) | 使用XPath选择 | html.xpath("//div[@class='title']") |
$(String selector) | 使用Css选择器选择 | html.$("div.title") |
$(String selector,String attr) | 使用Css选择器选择 | html.$("div.title","text") |
css(String selector) | 功能同$(),使用Css选择器选择 | html.css("div.title") |
links() | 选择所有链接 | html.links() |
regex(String regex) | 使用正则表达式抽取 | html.regex("<div>(.*?)") |
regex(String regex,int group) | 使用正则表达式抽取,并指定捕获组 | html.regex("<div>(.*?)",1) |
replace(String regex, String replacement) | 替换内容 | html.replace("","") |
返回结果
方法 | 说明 | 示例 |
---|---|---|
get() | 返回一条String类型的结果 | String link= html.links().get() |
toString() | 功能同get(),返回一条String类型的结果 | String link= html.links().toString() |
all() | 返回所有抽取结果 | List links= html.links().all() |
match() | 是否有匹配结果 | if (html.links().match()){ xxx; } |