大数据 爬虫Python AI Sql

Python爬虫 - Requests模块主要使用方法

2019-04-14  本文已影响18人  JeremyL
requests-sidebar

Requests is the only Non-GMO HTTP library for Python, safe for human consumption.


Requests主要有 7 个方法,对应的也是Requests模块的功能。

#1. request()方法

requests.request(method, url, **kwargs)
参数:
method -- 选择方法
url -- URL
params -- 字典或字节,添加到请求的字符串(URL)中
data -- 字典或元组列表或文件作为请求主体内容
json -- json格式数据作为请求主体内容
headers -- 与请求一起发送的HTTP头部信息(字典格式)
cookies -- 与请求一起发送的字典或CookieJar对象
files -- 文件名以字典格式传入;name: file-like-objects (or {name: file-tuple})
auth -- 身份认证元组,用于HTTP认证
timeout (float or tuple) -- 等待服务器响应时间
allow_redirects (bool) -- 默认True,是否允许重定向
proxies-- 访问代理,字典格式传入
verify -- 是否认真服务器TLS证书
stream -- 如果设定为False,响应内容直接下载
cert -- 本地SSL证书路径
返回:
Response 对象

#2. requests() 方法

requests.head(url, **kwargs)
参数:
url -- URL
**kwargs -- 参数
返回:
Response 对象

#3. get()方法

requests.get(url, params=None, **kwargs)
参数:
url -- URL
params -- 字典或字节,添加到请求的字符串(URL)中
**kwargs -- 参数
返回:
Response 对象

#4. post()方法

requests.post(url, data=None, json=None, **kwargs)
参数:
url -- URL
data -- 字典或元组列表或文件作为请求主体内容
json -- json格式数据作为请求主体内容
**kwargs -- 参数
返回:
Response 对象

#5. put()方法

requests.put(url, data=None, **kwargs)
参数:
url -- URL
data -- 字典或元组列表或文件作为请求主体内容
json -- json格式数据作为请求主体内容
**kwargs -- 参数
返回:
Response 对象

#6. patch()方法

requests.patch(url, data=None, **kwargs)
参数:
url -- URL
data -- 字典或元组列表或文件作为请求主体内容
json -- json格式数据作为请求主体内容
**kwargs -- 参数
返回:
Response 对象

#7. delete()方法

requests.delete(url, **kwargs)
参数:
url -- URL
**kwargs -- 参数
返回:
Response 对象

#8. 参考

Requests Developer Interface

上一篇下一篇

猜你喜欢

热点阅读