@IT·互联网

Python爬虫-1w+套个人简历模板爬取!打造一份好简历!

2021-03-05  本文已影响0人  爱是一道光_e5f7

友情提示

1.爬取的网站为站长之家

2.爬取的时候可以适量少爬一点,够用就行,小心律师函警告

3.代码为博主原创,仅供学习参考,请勿用于商业用途!!!

4.网站在迭代,我写下这篇博文的时候是适用的,其他时间段未必

5.附上原网站的说明

源码以及注释

实在怕封ip的可以在网上买个代理ip,毕竟爬的太多了

import requests  # 发送请求

from lxml import etree  # 数据解析

import time  # 线程暂停,怕封ip

import os  # 创建文件夹

# 由于目标网站更新了反爬虫机制,简单的UA伪装不能满足我们的需求,所有对整个消息头进行了伪装

headers = {

    'Accept':

        'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',

    'Accept-Encoding':

        'gzip, deflate, br',

    'Accept-Language':

        'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',

    'Cache-Control':

        'max-age=0',

    'Connection':

        'keep-alive',

    'Cookie':

        '__gads=undefined; Hm_lvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614145919,1614755756; '

        'UM_distinctid=177d2981b251cd-05097031e2a0a08-4c3f217f-144000-177d2981b2669b; '

        'sctj_uid=ccf8a73d-036c-78e4-6b1d-6035e961b0d3; '

        'CNZZDATA300636=cnzz_eid%3D1737029801-1614143206-%26ntime%3D1614759211; '

        'Hm_lvt_398913ed58c9e7dfe9695953fb7b6799=1614145927,1614755489,1614755737; '

        '__gads=ID=af6dc030f3c0029f-226abe1136c600e4:T=1614760491:RT=1614760491:S=ALNI_MZAA0rXz7uNmNn6qnuj5BPP7heStw; '

        'ASP.NET_SessionId=3qd454mfnwsqufegavxl5lbm; Hm_lpvt_398913ed58c9e7dfe9695953fb7b6799=1614760490; '

        'bbsmax_user=ce24ea68-9f80-42e3-8d4f-53b13b13c719; avatarId=a034b11b-abc9-4bfd-a8b2-bdf7fef644bc-; '

        'Hm_lpvt_aecc9715b0f5d5f7f34fba48a3c511d6=1614756087',

    'Host':

        '站长素材-分享综合设计素材的平台',

    'If-None-Match':

        '',

    'Referer':

        '免费简历模板 个人简历模板 简历模板免费下载-站长素材。',

    'Upgrade-Insecure-Requests':

        '1',

    'User-Agent':

        'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:86.0) Gecko/20100101 Firefox/86.0',

}

# 如果该文件夹不存在,则创建文件夹

if not os.path.exists('./moban'):

    os.mkdir('./moban')

for i in range(1, 701):  # 预计可爬700*20套简历模板

    print(f"正准备爬取第{i}页简历模板")

    print("怕封ip,操作暂停中......")  # 操作暂停提示语

    time.sleep(15)  # 每获取一个列表页暂停15s,一个列表页有20分简历模板的链接

    url = f'https://sc.chinaz.com/jianli/free_{str(i)}.html'  # 设置相应的路由i

    try:  # 异常处理

        response = requests.get(url=url, headers=headers)  # 获取响应

    except Exception as e:  # 给异常取名为e

        print(e)  # 打印异常名称

        print('连接失败,选择跳过!!!')  # 连不上就不要连了,头铁容易出事

        print("怕封ip,获取列表页操作暂停中......")  # 操作暂停提示语

        time.sleep(5)  # 每出现一次异常暂停5s

        continue  # 跳过本次循环

    response.encoding = 'utf-8'  # 中文编码为utf-8

    page = response.text  # 获取响应的文本数据

    tree = etree.HTML(page)  # 用etree进行数据解析

    a_list = tree.xpath("//div[@class='box col3 ws_block']/a")  # 用xpath提取目标内容形成20份一起的列表

    for a in a_list:

        resume_href = 'https:' + a.xpath('./@href')[0]  # 根据爬取的链接设置新的网页

        resume_name = a.xpath('./img/@alt')[0]  # 爬取名字,并对列表进行切片取第一个

        resume_name = resume_name.strip()  # 去掉首尾的空格

        try:

            resume_response = requests.get(url=resume_href, headers=headers)  # 进入简历模板详情页面

        except Exception as e:

            print(e)

            print('连接失败,选择跳过!!!')

            print("怕封ip,获取个人简历详情页操作暂停中......")

            time.sleep(5)

            continue

        resume_response.encoding = 'utf-8'  # 中文编码为utf-8

        resume_page = resume_response.text  # 获取响应的文本数据

        resume_tree = etree.HTML(resume_page)  # 用etree进行数据解析

        resume_link = resume_tree.xpath('//ul[@class="clearfix"]/li/a/@href')[0]  # 用xpath提取目标内容的下载链接

        try:

            download = requests.get(url=resume_link, headers=headers).content  # 获取二进制数据

        except Exception as e:

            print(e)

            print('连接失败,选择跳过!!!')

            print("怕封ip,下载个人简历操作暂停中......")

            time.sleep(5)

            continue

        download_path = './moban/' + resume_name + '.rar'  # 设置保存路径以及文件名称

        with open(download_path, 'wb') as fp:  # 设置文件制作,以二进制形式

            fp.write(download)  # 保存文件

            print(resume_name, '下载成功!!!')  # 下载成功提示语

效果

还是很简单的对不对!  没有想象中的那么难吧!

后记

近期有很多朋友通过私信咨询有关Python学习问题。为便于交流,点击蓝色自己加入讨论解答资源基地

上一篇下一篇

猜你喜欢

热点阅读