Python爬虫网络爬虫

使用python验证代理ip是否可用

2017-01-14  本文已影响10160人  罗盘上的方向

在使用爬虫爬取网络数据时,如果长时间对一个网站进行抓取时可能会遇到IP被封的情况,这种情况可以使用代理更换ip来突破服务器封IP的限制。
随手在百度上搜索免费代理IP,可以得到一系列的网站,这里我们通过对西刺网站的抓取来举例。

  1. 通过编写一个爬虫来抓取网站上面的IP地址,端口,及类型,把这些信息存到本地。这里不做介绍。
  2. 验证代理IP是否可用。原理是使用代理IP访问指定网站,如果返回状态为200,表示这个代理是可以使用的。
# _*_ coding:utf-8 _*_

import urllib2
import re


class TestProxy(object):
    def __init__(self):
        self.ip = '106.46.136.64'
        self.port = '808'
        self.url = 'http://www.baidu.com'
        self.timeout = 3

        self.regex = re.compile(r'baidu.com')

        self.run()

    def run(self):
        self.linkWithProxy()
    
    def linkWithProxy(self):
        server = 'http://'+ self.ip + ':'+ self.port

        opener = urllib2.build_opener(urllib2.ProxyHandler({'http':server}))
        urllib2.install_opener(opener)
        try:
            response = urllib2.urlopen(self.url, timeout=self.timeout)
        except:
            print '%s connect failed' % server
            return
        else:
            try:
                str = response.read()

            except:
                print '%s connect failed' % server
                return
            if self.regex.search(str):
                print '%s connect success .......' % server
                print self.ip + ':' + self.port


if __name__ == '__main__':
    Tp = TestProxy()

也可以使用requests包来进行验证,要少写好多代码

import requests

try:
    requests.get('http://wenshu.court.gov.cn/', proxies={"http":"http://121.31.154.12:8123"})
except:
    print 'connect failed'
else:
    print 'success'

把验证通过的IP保存在redis里面,在IP被禁止的时候可以从redis中取出来使用。


受@齐俊杰的提醒,添加一种使用telnet来验证的方法:

import telnetlib

try:
    telnetlib.Telnet('127.0.0.1', port='80', timeout=20)
except:
    print 'connect failed'
else:
    print 'success'
上一篇下一篇

猜你喜欢

热点阅读