python爬虫日记本Python数据采集与爬虫爬虫进化日记

爬虫笔记(一) - 各种Request请求的对比(Scrapy

2017-05-02  本文已影响995人  Spareribs

关于Cookie的分析我在爬虫笔记(六) - 关于 Cookie 的分析(Postman Request Selenium)中说明了,本次的目标网站也是同一个

本文主要包含一个要点,在分析完请求后,使用不同的方法构造同一个HTTP请求,方法包括:

Scrapy中一段让我揪心的代码

在分析前,我说一个自己遇到过的SB问题,在最开始我只放代码~~~

Scrapy中的spider

# -*- coding: utf-8 -*-
import scrapy
from scrapy.http import Request


class JobSpider(scrapy.Spider):
    name = "job"

    def start_requests(self):
        base_url = "https://www.lagou.com/jobs/positionAjax.json"

        querystring = {"city": "广州", "needAddtionalResult": "false", "kd": "python", "pn": "1"}

        headers = {
            'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:53.0) Gecko/20100101 Firefox/53.0",
            'cookie': "user_trace_token=20170502200739-07d687303c1e44fa9c7f0259097266d6;"
        }
        yield Request(url=base_url, method="GET", headers=headers)

    def parse(self, response):
        print response

从Postman中获取到的Request请求

#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
# @Time    : 2017/5/2 20:24
# @Author  : Spareribs
# @File    : test_lagou.py
"""

import requests
import json

url = "https://www.lagou.com/jobs/positionAjax.json"

querystring = {"city":"广州","needAddtionalResult":"false","kd":"python","pn":"1"}

headers = {
    'user-agent': "Mozilla/5.0 (Windows NT 6.1; WOW64; rv:53.0) Gecko/20100101 Firefox/53.0",
    'cookie': "user_trace_token=20170502200739-07d687303c1e44fa9c7f0259097266d6;"
    }

response = requests.request("GET", url, headers=headers, params=querystring)

print(response.text)

如果看完这两段代码你看懂了关键点,本文最想突出的核心要点你也看懂了。
看不懂也不急,先看下基础分析

Scrapy框架中的Request请求分析

首先是Request对象中文文档

class scrapy.http.Request(url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8', priority=0, dont_filter=False, errback])

参数要点:

Scrapy特有:

(占位---待继续更新)

Request库中的Request请求分析

中文文档

requests库中requests的方法

def request(method, url, **kwargs):
    with sessions.Session() as session:
        return session.request(method=method, url=url, **kwargs)

def get(url, params=None, **kwargs):
    kwargs.setdefault('allow_redirects', True)
    return request('get', url, params=params, **kwargs)

def post(url, data=None, json=None, **kwargs):
    return request('post', url, data=data, json=json, **kwargs)

(占位---待继续更新)

Chrome的Postman插件中的Request请求分析

对于Postman的请求,我这里分两种Method分析(其他的爬虫中很少用到)

首先是get请求

Postman中Get请求

要点:

  1. 请求的方法:Get
  2. 请求的URL
  3. 请求的Params参数
  4. 请求的Headers头部

然后是Post请求


Postman中Post请求

要点:

  1. 请求的方法:Post
  2. 请求的URL
  3. 请求的Params参数
  4. 请求的Headers头部
  5. Request Body(提供了4中编辑方式)
    然而,在Post中的4种编辑方式分别为:

(占位---待继续更新)

总结:其实我想了很久,一直没想明白,为什么同一个请求放Request库中成功了,而在scrapy中失败了,对于这个问题,其实就是不是很难,就是越简单越害人。Request库的请求的Cookies是可以放到headers中可以辨别的,而Scrapy的Cookies有一个独立的cookies参数来处理Cookie,放在headers中不生效

以上都是我的跟人观点,如果有不对,或者有更好的方法,欢迎留言指正~~~(持续更新中)

上一篇下一篇

猜你喜欢

热点阅读