软件测试

python3 requests详解

2020-06-19  本文已影响0人  A丶咔咔

requests库是一个常用的用于http请求的模块,它使用python语言编写,可以方便的对网页进行爬取,是学习python爬虫的较好的http请求模块。

一、 requests模块的安装

首先我们要继续requests模块的安装。

1、 pip命令安装

windows系统下只需要在命令行输入命令 pip install requests 即可安装

在 linux 系统下,只需要输入命令 sudo pip install requests ,即可安装。

2、下载安装包安装

由于pip命令可能安装失败所以有时我们要通过下载第三方库文件来进行安装。

在github上的地址为:https://github.com/requests/requests

下载文件到本地之后,解压到python安装目录。

之后打开解压文件,在此处运行命令行并输入:python setup.py install即可。

之后我们测试requests模块是否安装正确,在交互式环境中输入import requests如果没有任何报错,说明requests模块我们已经安装成功了

二、requests模块的使用方法

1、requests库的七个主要方法

方法                                                                                                解释

requests.request()                                                     构造一个请求,支持以下各种方法

requests.get()                                                            获取html的主要方法

requests.head()                                                         获取html头部信息的主要方法

requests.post()                                                          向html网页提交post请求的方法

requests.put()                                                            向html网页提交put请求的方法

requests.patch()                                                        向html提交局部修改的请求

requests.delete()                                                       向html提交删除请求

(1)requests.get()

这个方法是我们平时最常用的方法之一,通过这个方法我们可以了解到其他的方法,所以我们详细介绍这个方法。 

具体参数是:

r=requests.get(url,params,**kwargs)

url: 需要爬取的网站地址。

params: 翻译过来就是参数, url中的额外参数,字典或者字节流格式,可选。

**kwargs : 12个控制访问的参数

我们先来讲讲**kwargs:

**kwargs有以下的参数,对于requests.get,其第一个参数被提出来了。

params:字典或字节序列, 作为参数增加到url中,使用这个参数可以把一些键值对以?key1=value1&key2=value2的模式增加到url中

例如:kv = {'key1':' values', 'key2': 'values'}

r = requests.get('http:www.python123.io/ws', params=kw)

data:字典,字节序或文件对象,重点作为向服务器提供或提交资源是提交,,作为request的内容,与params不同的是,data提交的数据并不放在url链接里, 而是放在url链接对应位置的地方作为数据来存储。,它也可以接受一个字符串对象。

json:json格式的数据, json合适在相关的html,http相关的web开发中非常常见, 也是http最经常使用的数据格式, 他是作为内容部分可以向服务器提交。

例如:kv = {'key1': 'value1'}

r = requests.post('http://python123.io/ws', json=kv)

headers:字典是http的相关语,对应了向某个url访问时所发起的http的头i字段, 可以用这个字段来定义http的访问的http头,可以用来模拟任何我们想模拟的浏览器来对url发起访问。

例子: hd = {'user-agent': 'Chrome/10'}

r = requests.post('http://python123.io/ws', headers=hd)

cookies:字典或CookieJar,指的是从http中解析cookie

auth:元组,用来支持http认证功能

files:字典, 是用来向服务器传输文件时使用的字段。

例子:fs = {'files': open('data.txt', 'rb')}

r = requests.post('http://python123.io/ws', files=fs)

timeout: 用于设定超时时间, 单位为秒,当发起一个get请求时可以设置一个timeout时间, 如果在timeout时间内请求内容没有返回, 将产生一个timeout的异常。

proxies:字典, 用来设置访问代理服务器。

allow_redirects: 开关, 表示是否允许对url进行重定向, 默认为True。

stream: 开关, 指是否对获取内容进行立即下载, 默认为True。

verify:开关, 用于认证SSL证书, 默认为True。

cert: 用于设置保存本地SSL证书路径

其中response对象有以下属性:

属性                                                                                           说明

r.status_code                                                              http请求的返回状态,若为200则表示请求成功。

r.text                                                                            http响应内容的字符串形式,即返回的页面内容

r.encoding                                                                   从http header 中猜测的相应内容编码方式

r.apparent_encoding                                                   从内容中分析出的响应内容编码方式(备选编码方式)

r.content                                                                      http响应内容的二进制形式

举例说明:

1.>>> import requests

2.>>> r=requests.get("http://www.baidu.com")

3.>>> r.status_code

4.200

5.>>> r.encoding

6.'ISO-8859-1'

7.>>> r.apparent_encoding

8.'utf-8'

9.>>> r.text

10. '<!DOCTYPE html>\r\n<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8>ipt> <a href=//www.baidu.com/more/ name=tj_briicon class=bri style="display: block;">æ\x9b´å¤\x9a产å\x93\x81</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a com/ class=cp-feedback>æ\x84\x8fè§\x81å\x8f\x8dé¦\x88</a>&nbsp;京ICPè¯\x81030173å\x8f·&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>\r\n'

11.>>> r.encoding='utf-8'

12.>>> r.text

13.'<!DOCTYPE html>\r\n<!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=IE=Edge><meta chref=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.min.css="h读</a>&nbsp; <a href=http://jianyi.baidu.com/ class="cp-feedback">意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img src=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>\r\n'

(以上r.text内容过长,自行删除了部分,看出编码效果即可)

requests库的异常

注意requests库有时会产生异常,比如网络连接错误、http错误异常、重定向异常、请求url超时异常等等。所以我们需要判断r.status_codes是否是200,在这里我们怎么样去捕捉异常呢?

这里我们可以利用r.raise_for_status()语句去捕捉异常,该语句在方法内部判断r.status_code是否等于200,如果不等于,则抛出异常。

于是在这里我们有一个爬取网页的通用代码框架:

1.try:

2.r=requests.get(url,timeout=30)#请求超时时间为30秒

3.r.raise_for_status()#如果状态不是200,则引发异常

4.r.encoding=r.apparent_encoding #配置编码

5.return r.text

6.except:

7.return "产生异常"

(2) request.head()

看代码:

1.>>> r=requests.head("http://httpbin.org/get")

2.>>>r.headers

3.{'Connection': 'keep-alive', 'Server': 'meinheld/0.6.1', 'Date': 'Mon, 20 Nov 2017 08:08:46 GMT', 'Content-Type': 'application/json', 'Access-Control-Allow-Origin': '*', 'Access-Control-Allow-Credentials': 'true', 'X-Powered-By': 'Flask', 'X-Processed-Time': '0.000658988952637', 'Content-Length': '268', 'Via': '1.1 vegur'}

(3)requests.post()

1、向url post一个字典:

1.>>> payload={"key1":"value1","key2":"value2"}

2.>>> r=requests.post("http://httpbin.org/post",data=payload)

3.>>> print(r.text)

4.{

5."args": {},

6."data": "",

7."files": {},

8."form": {

9."key1": "value1",

10."key2": "value2"

11.},

12."headers": {

13."Accept": "*/*",

14."Accept-Encoding": "gzip, deflate",

15."Connection": "close",

16."Content-Length": "23",

17."Content-Type": "application/x-www-form-urlencoded",

18."Host": "httpbin.org",

19."User-Agent": "python-requests/2.18.4"

20.},

21."json": null,

22."origin": "218.197.153.150",

23."url": "http://httpbin.org/post"

24.}

2、向url post 一个字符串,自动编码为data

1.>>>r=requests.post("http://httpbin.org/post",data='helloworld')

2.>>>print(r.text)

 3.{

4."args": {},

5."data": "helloworld",

6."files": {},

7."form": {},

8."headers": {

9."Accept": "*/*",

10."Accept-Encoding": "gzip, deflate",

11."Connection": "close",

12."Content-Length": "10",

13."Host": "httpbin.org",

14."User-Agent": "python-requests/2.18.4"

 15.},

16."json": null,

17."origin": "218.197.153.150",

18."url": "http://httpbin.org/post"

 19.}

3.向url post一个文件

1.>>> import requests

2.>>> files = {'files':open('F:\\python\\test\\test_case\\files.txt','rb')}

3.>>> r = requests.post('https://httpbin.org/post',files=files)

4.>>> print(r.text)

5.{

6."args":{

7.

 8.},

9."data":"",

10."files":{

11."files":"hello worle!"

 12.},

13."form":{

14.

 15.},

16."headers":{

17."Accept":"*/*",

18."Accept-Encoding":"gzip, deflate",

19."Connection":"close",

20."Content-Length":"158",

21."Content-Type":"multipart/form-data; boundary=d2fb307f28aeb57b932d867f80f2f600",

22."Host":"httpbin.org",

23."User-Agent":"python-requests/2.19.1"

 24.},

25."json":null,

26."origin":"113.65.2.187",

27."url":"https://httpbin.org/post"

 28.}

(5)requests.put()

看代码:

1.>>> payload={"key1":"value1","key2":"value2"}

2.>>> r=requests.put("http://httpbin.org/put",data=payload)

3.>>> print(r.text)

 4.{

5."args": {},

6."data": "",

7."files": {},

8."form": {

9."key1": "value1",

10."key2": "value2"

 11.},

12."headers": {

13."Accept": "*/*",

14."Accept-Encoding": "gzip, deflate",

15."Connection": "close",

16."Content-Length": "23",

17."Content-Type": "application/x-www-form-urlencoded",

18."Host": "httpbin.org",

19."User-Agent": "python-requests/2.18.4"

 20.},

21."json": null,

22."origin": "218.197.153.150",

23."url": "http://httpbin.org/put"

(6)requests.patch()

requests.patch和request.put类似。

两者不同的是:

当我们用patch时仅需要提交需要修改的字段。

而用put时,必须将20个字段一起提交到url,未提交字段将会被删除。

patch的好处是:节省网络带宽。

(7)requests.request()

requests.request()支持其他所有的方法。

requests.request(method,url,**kwargs)

method: “GET”、”HEAD”、”POST”、”PUT”、”PATCH”等等

url: 请求的网址

**kwargs: 控制访问的参数

欢迎加入软件测试交流群~1125760266一起交流探讨!

上一篇下一篇

猜你喜欢

热点阅读