我的Python之旅程序员

haipproxy高可用核心策略

2018-03-04  本文已影响60人  resolvewang

昨日使用haipproxy作为代理源,对知乎进行了数据抓取相关的性能测试,测试效果还不错,有兴趣的可以点击项目主页查看测试结果。但是它仍有继续优化的空间,所以笔者打算单独写一篇文章来单独阐述它现有的IP筛选策略,也就是题目说的高可用策略。而关于部署的高可用后续文章会谈及到,这里暂时按下不表。

下文主要会谈到校验器和客户端的IP筛选策略。


校验器

我们知道,一个代理IP有多个属性,比如成功请求率、响应速度、是否支持Get/Post方法、是否匿名和该IP所处位置等。这些往往也是衡量一个IP质量的可参照标准。而从互联网上采集的免费IP大多数是短效的,所以代理IP对应的最近验证时间也是一个很重要的参考标准。haipproxy目前主要参照请求成功率响应速度最近验证时间是否匿名这四个维度对代理IP进行筛选。精力所限,目前还未打算对IP位置进行完善,而IP位置对于已登录的账户来说具有比较重要的意义。还有一点是,对于同一个代理IP,代理不同网站的效果可能大不相同,所幸的是,haipproxy可以根据自己需求定制校验器

根据haipproxy架构篇的介绍,我们可以知道haipproxy initvalidator会过滤掉部分透明的代理ip,另外一个过滤透明IP的地方是proxy spiders,它在抓取代理IP的时候会直接丢弃透明代理IP。因此,是否匿名这个标注我们已经实现了,后续所有的validated queues中存储的都是匿名及高匿IP。

请求成功率是以打分的方式来做的,这样做的原因是不需要对历时成功请求次数和失败请求次数进行记录和计算,优化了部分性能,又可以体现一个IP的稳定性。
那么打分的标准又是怎样的呢?haipproxy会先给定一个初始分数(5)。当成功一次,我们就对该代理加1分,为了防止分数短时间急剧增大,在分数大于一定阈值(10)后就对其进行更平滑的加分处理,具体为round(10/score, 2),这样,分数会越来越难升高,但是足够衡量每个代理IP的稳定性了。当失败一次,就要分情况处理了。我们知道,很多免费代理IP可能短时间失效,比如代理端口被关了。这种情况下,haipproxy会直接丢弃该代理IP,因为它没有继续校验的必要性了,再对它进行校验只会增加校验器的负担。但是如果本次校验超时了,校验器会将该代理IP减一分,直到分数为0,则删除。对于不同分数的IP的选取会在客户端部分进行说明。

响应速度这个标准比较容易评判,haipproxy的做法是为校验器爬虫加载一个profilemiddleware,从而获取到请求成功的代理IP的响应时间。同理,最近校验时间也比较容易获取到,我们使用redis的zset数据结构来存储它。

客户端

目前,haipproxy实现了两种形式的客户端:squidpy_cli。前者是语言无关的,它使用squid作为二级代理,它会定时自动更新squid配置文件,以获取新的可用代理,获取的方法和使用py_cli相同,下面会讲到。使用squid作为二级代理的好处是便于服务化,同时是语言无关的,我们的爬虫端只需要将代理设置为http://squid_host:3128就可以了,不用关心其它,但是这么做有一点不好的是,它的调度是轮询IP,并且对于不可用或者低质量IP的处理和反馈是不透明的。基于这点,有必要实现基于不同语言的客户端。

py_clihaipproxy代理获取的python实现。挑选可用代理的具体做法如下:


上述便是目前关于haipproxy的代理IP挑选策略的所有细节。如果项目对您有用,不妨在Github上给个star。

上一篇 下一篇

猜你喜欢

热点阅读