我的Python自学之路Python爬虫Python 开发

用Python爬取美团外卖APP评论

2017-08-22  本文已影响1394人  1想得美

一、介绍

朋友暑假实践需要美团外卖APP评论这一份数据,一开始我想,这不就抓取网页源代码再从中提取数据就可以了吗,结果发现事实并非如此,情况和之前崔大讲过的分析Ajax来抓取今日头条街拍美图类似,都是通过异步加载的方式传输数据,不同的是这次的是通过JS传输,其他的基本思路基本一致,希望那些数据能帮到她吧

二、流程

2.经过我们对http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17203361018749253357_1503362214558&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&c=message&a=getmessage&start=0&count=10&_=1503362215647进行分析后发现它的标准式为‘http://comment.mobilem.360.cn/comment/getComments?&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&start=’+str(i*10),i每次增加1,就包含新的十条评论的内容,所以我们通过改变i的值就可以拿到不同的数据

2.0
---------------------------17/8/26第一次更新:关于获取评论的编码问题
#之前是这样处理的:
def parse_one_page(html):
    pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)
    items=re.findall(pattern2,html)
    for item in items:
        item = "{" + item + "}"
        item=json.loads(item)
        write_to_file(item)
        print(item)
        save_to_mongo(item)

#皮皮哥告诉了我他的独家正则匹配方法可以匹配出来,这样的确获得的item没有编码问题
def parse_one_page(html):
    pattern = '\"content\":\".*?"'
    items=re.findall(pattern,html)
    for item in items:
        item =eval(item.split(':',1)[1])
        write_to_file(item)
        print(item)
        save_to_mongo(item)

#对一般正则写法获得的item进行的方法,这是从皮皮哥那里得知的,亲测有效
def parse_one_page(html):
    pattern = re.compile('rsion_name".*?"content":(.*?),"username"', re.S)
    items=re.findall(pattern,html)
    #print(items)
    for item in items:
        item = item.encode('utf-8').decode('unicode_escape')
        write_to_file(item)
        print(item)
        save_to_mongo(item)

三、代码

#config.py
MONGO_URL='localhost'
MONGO_DB='meituan'
MONGO_TABLE='meituan'
import requests
from requests.exceptions import RequestException
import json
import re
from day31.config import *
import pymongo

client=pymongo.MongoClient(MONGO_URL)
db=client[MONGO_DB]
base_url='http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17209056727722758744_1502991196139&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&start='

def the_url(url):
    try:
        response = requests.get(url)
        if response.status_code==200:
            response.encoding='utf-8'
            return response.text
        return None
    except RequestException:
        print('请求出错')
        return None

def the_total():
    html=the_url(base_url)
    pattern1 = re.compile('"total":(.*?),"messages"', re.S)
    Total = re.findall(pattern1, html)
    Total=int(':'.join(Total))
    #print(type(Total))
    show='总计评论%d条'%Total
    print(show)
    write_to_file(show)
    return Total

def parse_one_page(html):
    pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)
    items=re.findall(pattern2,html)
    for item in items:
        item = "{" + item + "}"
        item=json.loads(item)
        write_to_file(item)
        print(item)
        save_to_mongo(item)



def save_to_mongo(result):
    try:
        if db[MONGO_TABLE].insert(result):
            print('储存到MongoDB成功',result)
    except Exception:
        print('储存到MongoDB失败',result)

def write_to_file(content):
    with open('meituan_result.text','a',encoding='utf-8') as f:
        f.write(json.dumps(content,ensure_ascii=False)+'\n')
        f.close()

def main():
    Total=the_total()
    Total=int(Total/10)+2
    for i in range(Total):
        url = base_url + str(i*10)
        if the_url(url)!=None:
            html=the_url(url)
            parse_one_page(html)
        else:
            print('输完啦')
    ps='PS:因为有些评论空,所以实际评论比抓取的少'   #这是我瞎猜的
    write_to_file(ps)
    print(ps)

if __name__ == '__main__':
    main()

四、最后得到的数据视图和文件

3.0

五、总结

1.程序报错很正常,不要一报错就问别人,先自己思考、百度
2.在数据类型处理方面的知识还要加强
3.感谢皮皮哥、感谢姚文峰前辈!

上一篇下一篇

猜你喜欢

热点阅读