大数据 爬虫Python AI SqlPython编程

为了防止这个公众号被封,我连夜用Python爬取了它所有图片~

2022-09-06  本文已影响0人  傻逼平台瞎几把封号

哈喽兄弟们,今天来试试批量获取公众号文章,emmm…

虽然名义上是文章,单其实它是一篇纯图片文,至于为什么不是文字,小姐姐不比文字香?

事前准备

我们需要用到 Fiddler Everywhere 这个软件,Crack是本次要使用到的文件,以及要安装微信PC版客户端。

本次使用的是Python3.8 以及 pycharm2021,这是目前比较稳定的版本。

模块方面需要安装一个requests 模块,它是第三方模块,需要手动安装,win+R 打开运行框输入cmd 按回车打开命令提示符窗口,输入pip install requests 按回车即可安装。

效果展示

太过份的我就不展示了,影响不好,我们是技术爱好者,不是那啥爱好者~

主要代码

headers = {
    'Host': 'mp.weixin.qq.com',
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36 NetType/WIFI MicroMessenger/7.0.20.1781(0x6700143B) WindowsWechat(0x63060012)',
    'Cookie': 'wxuin=2408215323; lang=zh_CN; pass_ticket=TsrY5cXMvTN01ghVFxFxT9k4jdPONJBt8mdl0ta20qxjUHNsnkkWLjib4gXCXSQM; devicetype=android-29; version=2800153f; wap_sid2=CJvmqfwIEooBeV9IQVVCUVAzdVBlWEo5NTlySFpON1Ffek5zTE9qRi1jdWZjVFMyOFYyM0FyVE9RSTRNZ3VuUXFTcU94Q3lKY1VyQlJ2RkEtTWFyRWFLeHhJUTRrWmp0N0VDZ05zOFV4d0kzZ1p5cXBIbTVBbEZGRWJteEt4Q0oxSjY4ZHFhODlaZnMyY1NBQUF+MOXS6ZIGOA1AlU4=',
}
# ::text
for page in range(0, 3):
    url = f'https://mp.weixin.qq.com/mp/profile_ext?action=getmsg&__biz=MzU0MzU4OTY2NQ==&f=json&offset={page * 10}&count=10&is_ok=1&scene=&uin=777&key=777&pass_ticket=&wxtoken=&appmsg_token=1161_7%252BO7mVaQbImKSRrYWqKBnNggweX4WNZaqjadeg~~&x5=0&f=json'
    json_data = requests.get(url=url, headers=headers).json()
    general_msg_list = json_data['general_msg_list']
    general_msg_list = json.loads(general_msg_list)['list']
    # print(general_msg_list)
    title_list = []
    content_url_list = []
    for general_msg in general_msg_list:
        title = general_msg['app_msg_ext_info']['title']
        content_url = general_msg['app_msg_ext_info']['content_url']
        multi_app_msg_item_list = general_msg['app_msg_ext_info']['multi_app_msg_item_list']
        title_list.append(title)
        content_url_list.append(content_url)
        for multi_app_msg_item in multi_app_msg_item_list:
            title_list.append(multi_app_msg_item['title'])
            content_url_list.append(multi_app_msg_item['content_url'])
    # print(title_list)
    # print(content_url_list)
    zip_data = zip(title_list, content_url_list)
    for detail_title, detail_url in zip_data:
        if not os.path.exists('img/' + detail_title):
            os.mkdir('img/' + detail_title)
        # 1\. 发送请求
        response = requests.get(url=detail_url, headers=headers)
        # 2\. 获取数据
        html_data = response.text
        # 3\. 解析数据
        # 正则匹配数据 第一个参数 需要匹配的规则
        # 第一个参数 在哪个字符串里面匹配
        img_list = re.findall('data-src="(https://mmbiz\.qpic\.cn/.*?)"', html_data)
        print(detail_title)

我也录制了对应的视频讲解:Python采集公众号文章

最后推荐一套爬虫教程:Python实战100例

上一篇 下一篇

猜你喜欢

热点阅读