【Python爬虫】采集一个优秀艺术家相互交流的网站——P站(一
2021-11-09 本文已影响0人
Python案例教学
前言
总所周知, p站是日本知名的虚拟社区, 聚集了众多来自日本, 中国, 韩国, 美国等国家的优秀艺术家。他们在p站上相互交流, 分享高清优秀插画, 是一个正经的网站
本次受害者
目标网站:
https://www.acg-pixiv.com/tags/459.html


环境介绍
- python 3.8 -- anaconda 安装了一些模块 / 自动的 配置环境变量
- pycharm 2021专业版 >>> 激活码
- requests >>> pip install requests
- parsel >>> pip install parsel
开始代码
首先需要导入模块
import requests # 发送网络请求的模块
import parsel # 提取数据
import re
发送请求
url_1 = 'https://www.acg-pixiv.com/tags/450.html'
response_1 = requests.get(url_1)
获取数据
data_html_1 = response_1.text
提取数据
selector = parsel.Selector(data_html_1)
# 提取链接 属性内容 @属性名称 css xpath re
href_list = selector.xpath('/html/body/div/div[1]/ul/li/a/@href').getall()
title_list = selector.xpath('/html/body/div/div[1]/ul/li/a/@title').getall()
详情页链接
for info in zip(href_list, title_list):
# 索引取值 元组
url_2 = 'https://www.acg-pixiv.com' + info[1]
每一个详情页的网页源代码
# content? 获取二进制数据
response_2 = requests.get(url_2).text
提取详情页中的图片链接
selector_2 = parsel.Selector(response_2)
# 图片链接
url = selector_2.xpath('/html/body/div/div[1]/div[1]/div/img[1]/@src').get()
print(url)
图片链接
# 当这个程序报错的时候
try:
img_data = requests.get(img_url, timeout=5).content
except:
# 图片链接改一下
img_url = img_url.replace('800', '400')
img_data = requests.get(img_url).content
替换特殊字符
title = re.sub(r'[\\/:*?"<>|]', '_', info[1])
保存数据
print(f'---------正在爬取{title}---------')
with open(f'img/{title}.jpg', mode='wb') as f:
f.write(img_data)
运行代码,得到数据

