python中urllib和urllib2库的使用
请求与响应
request,response:
http协议解析网页过程爬虫爬取信息的过程实质上是一个请求与相应的模型,即:
建立连接,发出请求信息,回送响应信息,关闭连接
python中的urllib,urllib2库中可以实现http功能,urllib2为主
那么接下来,我们可以尝试一下用python实现一下http协议过程:
import urllib2
request = urllib2.Request('http://www.zhihu.com')
response = urllib2.urlopen(request)
html = response.read()
print html
这是一段获取知乎网站html信息的代码,
咦,是不是发现哪里不对劲,出现了乱码……
没有关系,需要做的就是要decode一下:
html = response.read().decode('utf-8')
看,一个简单的http过程就好了。
当然,在这一个过程中,主要是用到了Get请求,即从服务器端获取数据,但是我们知道,除了Get请求,还有一种请求是Post请求,就好比client和Server端在恋爱,有所获得也要有所付出,这样关系才更为牢靠,当然这不是绝对的,在这里只是打了一个比方,帮助更好理解。
来看一下下面的例子:
import urllib2
import urllib
url = 'http://www.zhihu.com/login'
postdata = {'username':'frank'
'password':'123456'
}
data = urllib.urlencode(postdata)#编码用到了urllib库,为了使urllib2能看懂
request = urllib2.Request(url,data)#在request过程中实现了post过程,把用户名和密码传过去
response.urllib2.urlopen(request)
html = response.read()
print html
可是,站在Server端考虑,我希望我的用户是用户的正常访问,即通过浏览器正常访问,而不是程序强行刚入,所以大部分网站服务器都会检查请求头,所以嘛,我们需要伪装一下,就像使看特工影视剧,我们要潜伏之前,都要有一个身份,这样才能够方便我们通过检验。于是乎,就有了
headers处理
其实做法也很简单:
user_agent = 'Mozilla/4.0 (compatible;MSIE 5.5;Windows NT)'
然后在
request = urllib2.Request(url, data,user_agent)
这里是举一个例子,很多地方是这样写,
headers = {‘user_agent’:user_agent,'Referer':referer}
user_agent和Referer的定义写在前面
还有另外一种,就是用add_header方法
request = urllib2.Request(url)
request.add_header('User-Agent',user_agent)
cookie处理
我对cookie的理解并不深刻,所以从网上找到了一种解释:
由此我们可以看出cookie的作用,鉴于此:
import urllib2
import cookielib
cookie = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
response = opener.open('http://www.zhihu.com')
for item in cookie:
print item.name+':'+item.value
之后还需要设置time超时,就像我们等人不能一直等,需要有一个时间限制一样
只需要在urlopen(request,timeout=3)
在一些情况下,我们可能还需要用到HTTP响应码来判断,以及当返回的是HTTP3XX时候,要进行重定向操作
最后一部分要强调的是代理服务:
为啥要用代理,Server也不傻,一个地方频繁的多次不合理的访问,人家肯定就会注意到了,所以我们要伪装一下。
import urllib2
proxy = urllib2.ProxyHandler({'http':'127.0.0.1:8087'})
opener = urllib2.build_opener([proxy,])
urllib2.install_opener(opener)
response =opener.open('http://www.zhihu.com/')
print response.read()