IT产品

【爬虫】简单爬取b站的弹幕列表

2018-04-17  本文已影响27人  MarcoHorse

最近有朋友在群上面说做个b站某视频的弹幕统计列表,筛选出弹幕最多的那条!那么如何解决这个问题呢?首先肯定是要获取弹幕的列表吧,然后再进行分析吧。筛选出弹幕最多的那条,这个好办用collections可以解决,那么关键的问题应该就在怎么获取b站的弹幕列表了吧。

开发环境:
window7+chrome
idea+python插件
requests+json+beautifulsoup+collections

那解决步骤如下:

  1. 解析视频播放页面链接
  2. 查找弹幕资源所在地
  3. 数据分析 (collections.Counter)
  4. 数据存储(file)
  5. 导出exe

解析视频播放页资源,查找弹幕资源所在

  1. b站的视频链接地址都是https://www.bilibili.com/video/av22068969/
    也就是https://www.bilibili.com/video/+视频av号
  2. 查看下html网页源文件是否包含着弹幕的资源快捷键ctrl+u,选择其中的弹幕内容,发现不存在
  3. 按f12+选择network这个tab查看页面加载的时候的js链接处理


  4. 我们发现弹幕的内容包括在一个xml文件里面,对,而且还没有分页的处理


  5. 那就简单了,获取弹幕的链接列表就是https://comment.bilibili.com/+数字+.xml
  6. 那么下一步就是找到这个数字所对应的链接了

    https://api.bilibili.com/x/player/pagelist?aid={}&jsonp=jsonp.format("av号")

定代码架构:

def get_movie_url(av):pass #获取cid
def get_barrage_list(url):pass #获取列表
def get_barrage_count(list):pass #获取筛选数值
def write_text(content):pass #写进文本

写py代码

l_list = []

def get_movie_url(av):
    response = requests.get(url_get_comment_cid.format(str(av)))
    content = response.content.decode(response.encoding)
    content = json.loads(content)
    for d in content.get('data'):
        cid = d.get('cid')
        get_content(cid)
    print("共有{}条弹幕".format(len(l_list)))
    count = collections.Counter(l_list).most_common()
    writetest(av, l_list)
    writetest(str(av) + "count", count)


def get_barrage_list(cid):
    response = requests.get(url_get_comment.format(str(cid)))
    content = response.content.decode(response.encoding)
    b = bs(content, 'xml')
    for i in b.findChildren('d'):
        l_list.append(i.text)


def write_text(av, l):
    with open(str(av) + '.txt', 'w+', encoding='utf-8') as f:
        for i in l:
            f.write(str(i)+"\n")

使用pyInstanller导出exe

安装pyInstaller ,pip install pyinstaller 最新版本是3.3.1
pyinstaller -F py文件路径
生成exe文件,打开运行,至于下一步想导入excel


好的,就这样写完了。。。

上一篇下一篇

猜你喜欢

热点阅读