tenliu的爬虫-python库urllib、urllib2、

2018-01-20  本文已影响0人  tenliu的简书

开篇语

抓取始终是一个很大的需求,小到单个页面,某个站点,大到搜索引擎(百度、谷歌)的全网抓取。
只要人能看到的东西,理论上都是爬虫可以获取的。不论静态页面还是动态页面。也不论pc端的页面还是移动端的app。
话有点大,但这就是本系列的目的。
爬虫编程,有很多语言可选,python、php、go、java···甚至是c。这里我们选择python作为爬虫的编程语言,因为它简单易上手,并且节约生命。

python爬虫

这里需要声明的是以下的教程都是基于python2.7的,python3已经有很大的变化了。
不了解python如何开始我们的爬虫呢?随便找个python教程,花五分钟时间看一下基本语法,就可以回来继续我们的爬虫之旅。
python中可以用来做爬虫的库也有很多,比较常用的是urllib、urllib2和requests,这三个库基本可以解决大部分抓取需求,我们也将从这里开始学起。
很多人做了一段时间的爬虫了,也不是很清楚这三者的关系,用这个库的这个方法也可以,那个库的那个方法也行,区别是啥,很容易混淆。所以下面我们对这三个库的关系和区别有一个清晰的认识。

urllib、urllib2、requests关系

urllib和urllib2是python标准库,就是你安装了python,这两个库就已经可以直接使用了;requests是第三方库,不是python基金会实现的,但是功能是很强大的。

urllib和urllib2

我们先说这两个标准库,这两个库做爬虫也基本够用了,不用requests也是可以的。

requests

urllib和urllib2是够乱的吧,使用时还要考虑url编码等等问题。第三方库requests出现了,它的slogen是Requests is the only Non-GMO HTTP library for Python, safe for human consumption.相对于标准库urllib、urllib2也确实有资格说这句话。
以上
基础的东西(urllib、urllib2、requests)我们还是要了解的,在这个过程中知道爬虫是怎么回事,以后再使用其他库、框架、搞分布式什么的

上一篇下一篇

猜你喜欢

热点阅读