爬虫计算机杂谈@IT·互联网

Scrapy爬简书30日热门 —— 总是套路留人心

2017-04-04  本文已影响557人  Wakingup88688
Scrapy 第一篇:单层次页面爬取 | 结巴分词

最近刚接触Scrapy基础,不太适应(主要是各种设置和之前不太一样)。不过其分块思维吸引人,编写逻辑清晰,抓取速度也快。

今天爬了简书30天热门的标题,简单做了个词频统计(想看分析的直接跳到后面吧~)
过程比较简单就不详细叙述。
</br>

一、记录一下出现的问题

1、 首先是Scrapy出现Crawled (403)


猜想可能是爬虫被发现了,改了下User_agent可以运行
Scrapy爬虫防止被"ban"的几种方法:
(下面这篇博文讲得很透彻)
http://www.cnblogs.com/rwxwsblog/p/4575894.html?utm_source=tuicool&utm_medium=referral

2、其次是jieba分词这一块出了问题


查了资料终于解决,原来是.pyc文件问题。
脚本每次运行时均会生成.pyc文件;在已经生成.pyc文件的情况下,若代码不更新,运行时依旧会走pyc。

所以解决办法就是要删除jieba库里面的.pyc文件,重新运行代码。同时命名脚本时,不要与py预留字、模块名等相同。对其它库亦是一样的。

3、然后做词云图的过程
最先用的是tagxedo(http://www.tagxedo.com/app.html) 结果上传字体的时候插件崩溃了,不知道什么原因。最初还以为是字体太了上传不了,换成小的也是不行。然后又重装了Silverlight,又崩了。又以为是权限的问题,改了一通,木得用。
(难办,求有经验的盆友支支招~)


最后换成了wordart,可以上传字体(哎宝宝还是想试试tagxedo>_<)。

4、用几乎相同的方式获取“首页投稿”专题里的文章的标题,结果又返回403,添了User_agent ,改了相关的setting,加了Cookies,还是不行


猜测数据隐藏在JS里面了,逛知乎发现一帖子,也是这个问题
https://www.zhihu.com/question/52165621
心有余而力不足啊~~~(唉,暂且搁置)
</br>

二、来看结果

用的jieba 来分词


用语料库在线(http://www.cncorpus.org/CpsTongji.aspx) 统计词频
词云用wordart(https://wordart.com/ 就是之前的TaGul )。
一起来看结果:

</br>
隔着屏幕都闻到一股浓浓的鸡汤味呀~_

用图上的高频词汇,

总结简书30日热门套路

版本(一):

一生有几个10岁,喜欢自己特别努力的样子

</br>

版本(二):

喜欢一个人是一种什么体验,为什么特别努力还是。。。


</br>
这第二个,,,
特么忙了半天原来给自己挖了个坑
我是有多无聊。。。不说了,去哭会~

</br>
关于词云图,下面几位老师总结得非常好:
http://www.jianshu.com/p/6a285dfa3d87
http://www.jianshu.com/p/4fb27471295f
http://www.jianshu.com/p/deae3b925cf3

本篇就是这样了~

上一篇下一篇

猜你喜欢

热点阅读