python学习之路(七):牛刀小试,爬取网络图片下载到电脑
自学python今天刚好一星期,今天准备来写第一个正式的脚本代码,以前知道python,是从网络爬虫才开始知道python的。最开始对python的印象就是网络爬虫,所以今天的第一个python就写一个简单的爬虫脚本。
在网上找了一个壁纸网页(http://www.win4000.com/zt/fengjing_1.html),想把里面的壁纸下载保存到电脑,但是一张一张的下载太费力气了,所以就写一个python爬取里面的图片地址,然后保存在电脑上。

分享之前我还是要推荐下我自己建的Python开发学习群:628979297,群里都是学Python开发的,如果你正在学习Python ,小编欢迎你加入,今天分享的这个案例已经上传到群文件,大家都是软件开发党,不定期分享干货(只有Python软件开发相关的),包括我自己整理的一份2018最新的Python进阶资料和高级开发教程,欢迎进阶中和进想深入Python的小伙伴。
写这个脚本用到前面几篇文章里讲到的一些知识点有:
1、 函数的创建与调用
2、 内置模块的导入
3、 For循环
4、 字符串编码(这个前面几篇里没讲过)
思路:
在这个脚本中用到python内置的模块有urllib模块,和re模块。Urllib模块是python内置的一个HTTP请求模块。Re模块是python内置的一个正则表达式模块。我们用urllib请求到网页的源代码,然后用正则表达式匹配出图片的下载地址。然后用for循环一张一张的把图片下载到电脑。
实现:
1、新建一个py文件,导入urllib和re模块。

Urllib里面包括很多子模块。包括以下模块
urllib.request 请求模块
urllib.error 异常处理模块
urllib.parse url解析模块
urllib.robotparser robots.txt解析模块
在这个脚本中只用到请求模块,所以就只导入urllib.request就好了。
2、写一个名为getHtml的函数,然后用urllib.request请求到网页源代码

给这个函数一个URL参数,然后用urllib.request请求到网页源代码,上面的变量html就是网页的源代码。
Html.decode(‘utf-8’)是网页的编码,如果编码不对,请求到的网页源码很可能是乱码的。我们可以在网页中用鼠标右键,然后查看网页源代码。

在源代码的头部会有这个网页的编码,我门根据这个编码写到代码里。
3、写一个名为getImg的函数,然后用re模块从上面一步中得到的网页源代码筛选出图片的url

在网页中鼠标右键查看源代码,可以看到这个网页的图片真实地址是放在img标签的data-original属性里面。

所以我们的正则表达式就写成这样
reg = r'data-original = "(.+?.jpg)"'
注意data-original后面的等于号两边都有空格,所以在正则表达式里也要打空格。
函数返回的imglist就是图片的url列表。
正则表达式也不是三言两语能说清的,想了解的可以阅读百度百科正则表达式:
https://baike.baidu.com/item/正则表达式/1700215
百度百科里面有很详细的介绍。
5、 写一个名为downImg的函数

用for循环把上一步得到的imglist循环下载到电脑。调用urllib模块中的urllib.request.urlretrieve函数,把图片保存在电脑里。我这里是保存在D盘的images目录下
6、 调用前面的写3个函数。
首先调用getHtml传入网页连接,得到源代码html

然后调用getImg传入源代码,得到图片列表imglist
最后调用downImg传入图片列表开始下载
完整代码如下:

运行结果:

电脑存D盘的images目录:
再加个循环,我们可以把前几页所有的图片都下载下来。把网页翻到第二页。查看第二页的连接。
可以发现一个规律,网站地址的.thml前面就是下划线+页数。可以根据这个规律来下载指定页数内的所有图片。只需在调用上面的三个函数的时候,加个循环拼接网页的地址,循环调用即可。

给downImg函数加个页数pageNum的参数。然后保存图片命名以页数开头命名。加个页数开头以防止后面一页把前面一页下载的图片给覆盖了。
运行代码后,前五页145张图片都已经下载到电脑里了。

当然上面爬取数据的方式是最简单的,数据量多的话效率不是很理想,现在有很多优秀的第三方模块都可以代替内置的模块,有时间的话我找一个好用的第三方爬虫模块来说一下