爬虫第一讲:什么是爬虫

2018-08-20  本文已影响0人  谢谢_d802

什么是爬虫?

请求网站并提取数据的自动化程序

请求

用代码模拟浏览器向网站发出请求。并获取资源

资源是一堆html代码。我们需要的数据就包含在这堆html代码中

提取

提取就是从这堆html代码中获得我们想要的特定的内容。

自动化

程序是自动运行的,代替浏览器不断的发送请求,批量的提取和处理数据

爬虫的基本流程

  1. 发起请求

    通过HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,等待服务器响应。

  2. 获取响应内容

    如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。

  3. 解析内容

得到的内容可能是HTML,可以用正则表达式、网页解析库进行解析。可能是Json,可以直接转换为Json对象解析,可能是二进制数据,可以做保存或者进一步处理。

  1. 保存数据

    保存形式多样,可以保存为文本,也可以保存到数据库,或者保存为特定格式的的文件。

什么是Request和Response

1.浏览器发送消息给该网站所在的服务器,这个过程叫做HTTP Request。
2.服务器收到浏览器发送的消息后,能够根据浏览器发送消息的内容,做相应处理,然后把消息回传给浏览器。这个过程叫做HTTP Response.
3.浏览器收到服务器的Response信息后,会对信息进行相应处理,然后展示。

Request中包含什么?

1.请求方式--主要有GET、POST两种,还有HEAD、PUT、delete、OPTIONS等
get请求方式的特点--内容直接在url参数中,不安全。
POST要构造FormData
2.请求URL--统一资源定位符
3.请求头--一些配置信息Request headers 最重要的user-Agent:什么类型的浏览器。服务器由此判断是什么浏览器发起的请求。还有cookie,一般爬虫都要构造Request Headers
4.请求体--请求时额外携带的数据,如表单提交时的表单数据。

Response中包含什么内容

1.响应状态---有多种响应状态,如200代表响应状态,如200表示成功,301跳转,404找不到页面,502服务器错误。
2.响应头--如内容类型、内容长度、服务器信息、设置cookie等等
3.响应体--最主要的部分,包含请求资源的内容,如网页的HTML、图片的二进制数据等等

能抓怎么样的数据

1.最常见的HTML文档、Json格式文本等
2.图片等二进制文件,保存为图片格式

import requests
myres = requests.get('https://n.sinaimg.cn/finance/blackcat/pc/heimao.gif')
print(myres.content) #打印返回的内容,是响应体的二进制格式
with open('/var/tmp/1.gif', 'wb') as f:
     f.write(myres.content)
     f.close()


3.视频格式,也是二进制文件,保存为视频格式

4.其他,只要能请求到的,都能保存

怎样解析

解析方式
1.直接处理,返回字符串,简单处理就可以了。构造简单,返回结构简单
2.Json解析。一般是Json的字符串,转换为Json对象
3.正则表达式,比较普遍的方式
4.BeautifulSoup,更加容易
5.PyQuery
6.XPath

为什么我抓到的和浏览器看到的不同

都是JavaScript调用访问器接口,得到的数据再填充造成的,最后呈现的js渲染完毕之后的代码,和开始拿到的后台请求响应的代码不同。

怎么解决JavaScript渲染的问题?

1.分析Ajax请求
2.Selenium/WebDriver来驱动浏览器来模拟加载一个网页。自动化测试的工具

from selenium import webdriver
from selenium.webdriver.chrome.options import Options

options = Options()
options.add_argument('--no-sandbox')
options.add_argument('--disable-dev-shm-usage')
options.add_argument('--headless')
options.add_argument('--disable-gpu')

driver = webdriver.Chrome(executable_path='/usr/bin/chromedriver', chrome_options=options)
driver.get('https://github.com/')
print driver.title
print(driver.page_source) #这里得到的是渲染过后的HTML页面,可以作为提取用途
driver.quit()

3.Splash--也是模拟js渲染的

4.PyV8、Ghost.py模拟js

怎样保存数据

1.文本
纯文本、Json、Xml等
2.关系型数据库
如MySQL、Oracle、SQL Server等具有结构化表结构形式存储。
3.非关系型数据库

4.二进制文件--图片、音频、视频等特定格式

上一篇下一篇

猜你喜欢

热点阅读