Python学习笔记Python语言学习

谈一谈简书数据的爬取

2017-03-01  本文已影响1148人  向右奔跑

前天的文章发出之后有简友留言说,是看我的专题文章学习爬虫的,并告诉我,简书更新新版网站后,我是第一个讲解的,他当时能搜到的全是旧版本的文章。今天来详细说说简书的数据抓取。

学习Python爬虫离不开大量练习实战,爬~爬~爬,本着“所有网站皆可爬”的原则,只要你感兴趣的网站数据都可以拿来练习,一般在初学时大家练得比较多的是,豆瓣、知乎和新浪微博,堪称“爬手三大练手地”,但是近半年多来,爬取简书学习和练习的童鞋越来越多。

那大家对简书上哪些数据会比较感兴趣,其结构和关键点又是如何?在学习的爬虫中又需要注意哪些?

一、网站整体结构

我是从一个爬虫的角度来说的。基本可以归为以下几种类型页面:

上首页的热门文章的类型,标题有什么特点?

是哪些作者经常上首页,霸占了首页热点,有什么特点?还可以不同时间的对比分析,如半年前与现在对比。

这类分析比较难的是文章类型,简书对文章没有类型的标注,如TAG类型,只有专题的不同,但是专题之间有些还是有比较多的交叉重合。建议文章在发表时,作者可以设置文章类型标记。目前想对大量文章进行分类只能使用机器学习、NLP。

要获取专题收录情况,首页文章会显示一个主要的专题收录,在文章页面可以获取这篇文章的所有专题收录。

这个页面的数据比较多,可分为:

以下几篇文章,都是关于简书新版网站爬取的一些分析。
Scrapy抓取Ajax数据
Python爬取数据的分页分析
分析一个爬虫的分页问题

二、简书爬虫的效率

很多学习、练习Python爬虫的童鞋,都想过尽可能多的抓取用户,尽可能多的字段。

我的思路,是用最少的入口,获取最多的用户,采取的是爬取关键用户的粉丝方式。先不考虑注册时间,爬取用户timeline一些用户的作者太多。可以考虑的多个爬虫一起工作,分别爬取数据入库。目前没有更好的方式。

三、一个爬虫的自我修养

有爬虫就有反爬虫,相互斗争和较量。目前在简书上还没有被禁过,虽然我们使用各种防止被Ban的方法,伪装浏览器、使用代理IP,使用随机Cookie,selenium等,作为一个爬虫爱好者和学习者,有几点还是要特别注意:一 限制爬虫下载速度,二 避开用户使用期爬取,我一般都选择深夜时开始。

三、爬虫开发工程师的段位

上周在我们的微信群,数据虫巢 黄老师,给出一个爬虫工程师的段位,稍后他会有文章和其他形式更详细地分享。贴出来,与大家共勉。

上一篇下一篇

猜你喜欢

热点阅读