大数据 爬虫Python AI SqlPython小哥哥

今天教大家玩转一个零基础都会的爬虫——新浪微博评论爬取 !

2019-03-23  本文已影响0人  14e61d025165

最近听闻「杨超越杯编程大赛」很是火热~

网友纷纷评论,原来追星还可以这么硬核,没点实力还不敢追了

本期,小F通过爬取新浪微博评论,来看看大家对此次大赛有什么看法。

在此之前,先查阅一下相关资料,发现从微博的手机端和移动端入手,效果还可以。

网页版的微博,想都不用想,去了就是自讨苦吃。

微博的反爬甚是厉害,我可不想去大动干戈...

虽然最后由于种种原因,还是没能够获取到完整的评论,不过也拿到了挺多数据。

还是可以拿来一窥的。

/ 01 / 网页分析

网页端微博直接不看,先看一下手机端。

网址为 https://m.weibo.cn

image image

对于手机端的微博,主要是获取它的id值。

为什么不用它来爬取评论信息呢?

因为在对评论翻页时,它的url参数是改变的,需要构造新的url。

当然新的url也是有办法构造出来的,只不过需要去找一下参数信息。

不过有方便的方法,为何不用~

比如下面这个方法,使用上面获取的id值,通过特定的接口获取评论信息。

image image

但是这个办法也是有问题的,当请求超过100页时,就没有评论信息返回。

image

那么就该移动端上场了,相信在诺基亚的时代,你对下面这样的网页应该并不陌生。

image

上面两个办法的响应信息都是json格式。

而这里则是正常的网页情况。

image

此外这里的评论信息有时会少掉一些,具体什么原因我也不得而知。

对于本次爬取,少了30页的评论信息。

不过不封IP,不封Cookie,个人感觉挺好的...

/ 02 / 评论获取

通过移动端微博获取评论信息。

具体代码如下。

<pre style="font-size: inherit;color: inherit;line-height: inherit;">

from copyheaders import headers_raw_to_dict
from bs4 import BeautifulSoup
import requests
import time
import re

headers = b"""
accept:text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,/;q=0.8
accept-encoding:gzip, deflate, br
accept-language:zh-CN,zh;q=0.9
cache-control:max-age=0
cookie:你的cookie
upgrade-insecure-requests:1
user-agent:Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36
"""

将请求头字符串转化为字典

headers = headers_raw_to_dict(headers)

第一页有热门评论,拿取信息较麻烦,这里偷个懒~

for i in range(2, 500):
print('第' + str(i) + '页')
time.sleep(5)
# 请求网址
url = 'https://weibo.cn/comment/HjNyl82IU?uid=5852861043&rl=0&page=' + str(i)
response = requests.get(url=url, headers=headers)
html = response.text
# print(html)
soup = BeautifulSoup(html, 'html.parser')
# 评论信息
result_1 = soup.find_all(class_='ctt')
# 点赞数
result_2 = soup.find_all(class_='cc')
# 评论时间
result_3 = soup.find_all(class_='ct')
# 获取用户名
result_4 = re.findall('id="C_.?href="/.?">(.*?)</a>', html)
try:
for j in range(len(result_1)):
# 获取点赞数
res = re.findall('(\d+)', result_2[j * 2].get_text())
if len(res) > 0:
praise = res[0]
name = result_4[j]
text = result_1[j].get_text().replace(',', ',')
date = result_3[j].get_text().split(' ')[0]
# print(praise)
if '@' in text:
if ':' in text:
# 去除@及用户信息
comment = text.split(':')[-1]
print(name, comment, praise, date)
# 写入csv
with open('101.csv', 'a+') as f:
f.write(name + ',' + comment + ',' + praise + ',' + date + '\n')
f.close()
else:
# 无评论信息时
print(name, '无', praise, date)
with open('ycy.csv', 'a+') as f:
f.write(name + ',' + '无' + ',' + praise + ',' + date + '\n')
f.close()
else:
# 只有评论信息
print(name, text, praise, date)
# 写入csv
with open('101.csv', 'a+') as f:
f.write(name + ',' + text + ',' + praise + ',' + date + '\n')
f.close()
else:
pass
# 出现字符编码报错
except:
continue
完整代码加群:683380553 获取!
</pre>

最后成功获取评论信息。

image

包含了用户名、评论、点赞数、评论发表时间。

微博里是显示一共有5000多条评论,但是最后却只获取了3000多条。

这里很大的一个原因就是编码问题...

因为我去掉了不少编码有问题的评论(我没去解决这个问题)。

/ 03 / 生成词云

针对大家的评论,生成词云。

<pre style="font-size: inherit;color: inherit;line-height: inherit;">

from wordcloud import WordCloud
import matplotlib.pyplot as plt
import numpy as np
import pandas
import random
import jieba

设置文本随机颜色

def random_color_func(word=None, font_size=None, position=None, orientation=None, font_path=None, random_state=None):
h, s, l = random.choice([(188, 72, 53), (253, 63, 56), (12, 78, 69)])
return "hsl({}, {}%, {}%)".format(h, s, l)

绘制圆形

x, y = np.ogrid[:1500, :1500]
mask = (x - 700) ** 2 + (y - 700) ** 2 > 700 ** 2
mask = 255 * mask.astype(int)

读取信息

df = pandas.read_csv('101.csv', header=None, names=['name', 'comment', 'praise', 'date'], encoding='gbk')
words = pandas.read_csv('chineseStopWords.txt', encoding='gbk', sep='\t', names=['stopword'])

分词

text = ''
for line in df['comment']:
text += ' '.join(jieba.cut(str(line), cut_all=False))

停用词

stopwords = set('')
stopwords.update(words['stopword'])

wc = WordCloud(
background_color='white',
mask=mask,
font_path='C:\Windows\Fonts\华康俪金黑W8.TTF',
max_words=2000,
max_font_size=250,
min_font_size=15,
color_func=random_color_func,
prefer_horizontal=1,
random_state=50,
stopwords=stopwords
)

wc.generate_from_text(text)

看看词频高的有哪些

process_word = WordCloud.process_text(wc, text)
sort = sorted(process_word.items(), key=lambda e: e[1], reverse=True)
print(sort[:50])
plt.imshow(wc)
plt.axis('off')
wc.to_file("微博评论词云.jpg")
print('生成词云成功!')

</pre>

词云图如下。

image

还是能发现一些有趣的信息,比如说里面的「不配」「只会」「只能」「拖后腿」。

粉丝们都在疯狂的调侃自己。

当然也有很鼓舞人的话,比如「厉害」「优秀」「有趣」。

其实我在想「村民」又是什么新名词...

/ 04 / 总结

最后来看一波高赞的评论是怎么说的。

image

就第一、四条来看,原来比赛举办的还不少,果真实力追星。

上一篇下一篇

猜你喜欢

热点阅读