2019-06-29

2019-06-29  本文已影响0人  Kuma萌_3e0c

### 1.http协议:

    (1)当⽤户在地址输⼊了⽹址 发送⽹络请求的过程是什么

    (2)http的请求⽅式

  #### get请求

    (1)⽐较便捷

      缺点:不安全:明⽂

      参数的⻓度有限制

  #### post请求

    (1)⽐较安全

    (2)数据整体没有限制

    (3)上传⽂件

  #### put(不完全的)

  #### delete(删除⼀些信息)

  #### head(请求头)

    发送⽹络请求(需要带⼀定的数据给服务器不带数据也可以)

    请求头⾥⾯requestheader

    返回数据:response

```text

    (1)Accept:⽂本的格式

    (2)Accept-Encoding:编码格式

    (3)Connection:⻓链接 短链接

    (4)Cookie:验证⽤的

    (5)Host:域名

    (6)Referer:标志从哪个⻚⾯跳转过来的

    (7)User-Agent:浏览器和⽤户的信息

```

### 2.爬⾍⼊⻔:使⽤代码模拟⽤户 批量的发送⽹络请求 批量的获取数据

##### (1)爬⾍的价值:

```text

    1.买卖数据(⾼端的领域价格特别贵)

    2.数据分析:出分析报告

    3.流量

    4.指数阿⾥指数,百度指数

```

##### (2)合法性:灰⾊产业

```text

    政府没有法律规定爬⾍是违法的,也没有法律规定爬⾍是合法的

    公司概念:公司让你爬数据库(窃取商业机密)责任在公司

```

##### (3)爬⾍可以爬取所有东⻄?(不是)爬⾍只能爬取⽤户能访问到的数据

```text

举例:

爱奇艺的视频(vip⾮vip)

1.普通⽤户 只能看⾮vip 爬取⾮vip的的视频

2.vip 爬取vip的视频

3.普通⽤户想要爬取vip视频(⿊客)

```

#### 爬⾍的分类:

##### (1)通⽤爬⾍

```text

1.使⽤搜索引擎:百度 ⾕歌 360 雅⻁ 搜狗

优势:开放性 速度快

劣势:⽬标不明确

返回内容:基本上%90是⽤户不需要的

不清楚⽤户的需求在哪⾥

```

##### (2)聚焦爬⾍(学习)

```text

1.⽬标明确

2.对⽤户的需求⾮常精准

3.返回的内容很固定

增量式:翻⻚:从第⼀⻚请求到最后⼀⻚

Deep 深度爬⾍:静态数据:html css

动态数据:js代码,加密的js

robots:是否允许其他爬⾍(通⽤爬⾍)爬取某些内容, 可以输入  某网站首页/robots.txt 查看协议

        如 : https://y.qq.com/robots.txt

聚焦爬⾍不遵守robots

爬⾍和反扒做⽃争:资源对等 胜利的永远是爬⾍

```

#### 爬⾍的⼯作原理:

```text

1.缺⼈你抓取⽬标的url是哪⼀个(找)

2.使⽤python代码发送请求获取数据(java Go)

3.解析获取到的数据(精确数据)

    (1)找到新的⽬标(url)回到第⼀步(⾃动化)

4.数据持久化

```

#### python3(原⽣提供的模块):

`urlib.rquest`:

##### (1)urlopen :

    1.返回response对象

    2.response.read()

    3.bytes.decode("utf-8")

##### (2)get:传参

    1.汉字报错 :解释器ascii没有汉字,url汉字转码

##### (3)post

##### (4)handle处理器的⾃定义

##### (5)urlError

#### python(原⽣提供的): urlib2

    接下来将的知识点:

    5.request(第三⽅)

    6.数据解析:xpath bs4

    7.数据存储

上一篇 下一篇

猜你喜欢

热点阅读