python中urllib和urllib2库的使用

2017-07-01  本文已影响0人  奈流石何处

请求与响应

request,response:

http协议解析网页过程

爬虫爬取信息的过程实质上是一个请求与相应的模型,即:

                        建立连接,发出请求信息,回送响应信息,关闭连接

python中的urllib,urllib2库中可以实现http功能,urllib2为主

那么接下来,我们可以尝试一下用python实现一下http协议过程:


import urllib2

request = urllib2.Request('http://www.zhihu.com')

response = urllib2.urlopen(request)

html = response.read()

print html


这是一段获取知乎网站html信息的代码,

咦,是不是发现哪里不对劲,出现了乱码……

没有关系,需要做的就是要decode一下:

         html = response.read().decode('utf-8')

看,一个简单的http过程就好了。

当然,在这一个过程中,主要是用到了Get请求,即从服务器端获取数据,但是我们知道,除了Get请求,还有一种请求是Post请求,就好比client和Server端在恋爱,有所获得也要有所付出,这样关系才更为牢靠,当然这不是绝对的,在这里只是打了一个比方,帮助更好理解。

来看一下下面的例子:


import urllib2

import urllib

url = 'http://www.zhihu.com/login'

postdata = {'username':'frank'

'password':'123456'

}

data = urllib.urlencode(postdata)#编码用到了urllib库,为了使urllib2能看懂

request = urllib2.Request(url,data)#在request过程中实现了post过程,把用户名和密码传过去

response.urllib2.urlopen(request)

html = response.read()

print html


可是,站在Server端考虑,我希望我的用户是用户的正常访问,即通过浏览器正常访问,而不是程序强行刚入,所以大部分网站服务器都会检查请求头,所以嘛,我们需要伪装一下,就像使看特工影视剧,我们要潜伏之前,都要有一个身份,这样才能够方便我们通过检验。于是乎,就有了

                                          headers处理

其实做法也很简单:

           user_agent = 'Mozilla/4.0 (compatible;MSIE 5.5;Windows NT)'

然后在

                 request = urllib2.Request(url, data,user_agent)

这里是举一个例子,很多地方是这样写,

                 headers = {‘user_agent’:user_agent,'Referer':referer}

                 user_agent和Referer的定义写在前面

还有另外一种,就是用add_header方法

                 request = urllib2.Request(url)

                 request.add_header('User-Agent',user_agent)

                                         cookie处理

我对cookie的理解并不深刻,所以从网上找到了一种解释:

由此我们可以看出cookie的作用,鉴于此:


import urllib2

import cookielib

cookie = cookielib.CookieJar()

opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))

response = opener.open('http://www.zhihu.com')

for item in cookie:

print item.name+':'+item.value


之后还需要设置time超时,就像我们等人不能一直等,需要有一个时间限制一样

只需要在urlopen(request,timeout=3)

在一些情况下,我们可能还需要用到HTTP响应码来判断,以及当返回的是HTTP3XX时候,要进行重定向操作

最后一部分要强调的是代理服务:

为啥要用代理,Server也不傻,一个地方频繁的多次不合理的访问,人家肯定就会注意到了,所以我们要伪装一下。


import urllib2

proxy = urllib2.ProxyHandler({'http':'127.0.0.1:8087'})

opener = urllib2.build_opener([proxy,])

urllib2.install_opener(opener)

response =opener.open('http://www.zhihu.com/')

print response.read()


上一篇下一篇

猜你喜欢

热点阅读