python3的爬虫笔记4——GET和POST(2)
2017-04-23 本文已影响701人
X_xxieRiemann
上次笔记中我们说到,POST常用于帐号密码的登录,但现在很多网站的登录是需要验证码的,这给我们的爬虫之旅增加了一些难度。这里我们先忽略掉验证码,选取一个不需要验证码的网站进行测试。
这里以厦门大学师生系统( http://ssfw.xmu.edu.cn/cmstar/index.portal )的登录为例:
打开我们的谷歌浏览器插件Fiddler,先clear一下。我们随便填个邮箱(比如77777@qq.com)和密码(123456)登录下,看看浏览器和服务端进行了怎样的“交易”。
Fiddler.png可以看到POST类型中的Form Data中出现了一写字典一样的东西,这些数据就是浏览器POST给服务端的数据。我们把关键的地方放大再看看:
Fiddler.png这中间还有一个关键的数据,就是Request URL,他表示我们实际的登录地址。
那么差不多了,我们来试试看怎么写一个POST的代码吧。
(1)方法一使用requests模块
import requests
#取我们从Fiddler中得到的Request URL
url='http://ssfw.xmu.edu.cn/cmstar/userPasswordValidate.portal'
#将POST需要的参数放入data字典中
data = {}
data['Login.Token1'] = 'xxxxxxxx' #帐号
data['Login.Token2'] = 'xxxxxx' #密码
data['goto'] = 'http: // ssfw.xmu.edu.cn / cmstar / loginSuccess.portal'
data['gotoOnFail'] = 'http: // ssfw.xmu.edu.cn / cmstar / loginFailure.portal'
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.103 Safari/537.36', 'Connection':'keep-alive'}
#用POST的方法进行参数传递
response = requests.post(url=url, data=data, headers=headers)
html = response.text
print(html)
(2)方法二使用urllib模块
import urllib.request
import urllib.parse
#取我们从Fiddler中得到的Request URL
login_url = 'http://ssfw.xmu.edu.cn/cmstar/userPasswordValidate.portal'
headers = {'User-Agnet': 'Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/27.0.1453.94 Safari/537.36', 'Connection': 'keep-alive'}
#将POST需要的参数放入values字典中
values = {}
values['Login.Token1'] = 'xxxxxxxx' #帐号
values['Login.Token2'] = 'xxxxxxx' #密码
values['goto'] = 'http: // ssfw.xmu.edu.cn / cmstar / loginSuccess.portal'
values['gotoOnFail'] = 'http: // ssfw.xmu.edu.cn / cmstar / loginFailure.portal'
#由于Request中的data参数必须是bytes二进制形式,用urlencode将字典转换成str,再encode编码成二进制。
data = urllib.parse.urlencode(values).encode('utf-8')
request = urllib.request.Request(url=login_url, data=data, headers=headers)
response = urllib.request.urlopen(request)
html = response.read().decode('utf-8')
print(html)
登录成功时,显示
登录失败时,显示