淘宝爬虫 之 登陆验证(一)
淘宝作为一大电商网站,反爬措施还是相当的完善的

输入账号密码,先别着急点击登陆,需要准备一下;开发者模式找到网络,点击持续更新日志,否则是找不到登陆页面的

接下来点击登陆,会发现login,里面就是我们需要的cookie了

找到Form Data,里面的数据就是我们需要的,全部都要

分析到此结束,下面直接上代码
import requests
#淘宝登陆的url
url ="https://login.taobao.com/member/login.jhtml"
#记录登陆状态方便后续请求
ponse = requests.session()
headers = {
'user-agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36',
}
data = {
#在这里放入1-4 中的数据
}
#测试cookie是否验证成功,可以换成淘宝其他的url
url1 ="https://s.taobao.com/search?q=%E9%94%AE%E7%9B%98&imgfile=&commend=all&ssid=s5-e&search_type=item&sourceId=tb.index&spm=a21bo.2017.201856-taobao-item.1&ie=utf8&initiative_id=tbindexz_20170306"
#记录登陆请求状态
ponse.post(url,headers=headers,data=data)
#后续请求
t = ponse.get(url1,headers=headers)
print(t.content.decode("utf8"))