Python 爬虫专栏@IT·互联网生活不易 我用python

教务处考试系统自动答题

2017-05-18  本文已影响504人  hukx_michael

学校要求登录教务处网站做一个测试题,我做了看了看,30分钟300道题,240分几个,题量不少,题还不好做。研究了一下发现原来在网站上就有题库的,但是一道题只有6s 的时间作答,边查边做肯定是时间不够的。灵光一闪,人生苦短,我用Python,写个自动答题的机器人吧。


思路:

用到的工具:

实现过程:

以前研究过学校教务系统的登录,现在终于在正事上排上用场了。学校教务系统的登录还算简单,没有验证码,唯一一点儿小障碍是登录表单会有几个隐藏字段,有个字段会动态改变,解决就是先GET一下登录网址,获取这几个字段的值,再随表单进行POST。代码:

import requests
from bs4 import BeautifulSoup
import os

headers = {
    'Connection': 'keep-alive',
    'Cache-Control': 'max-age=0',
    'Upgrade-Insecure-Requests': '1',
    'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_4) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.95 Safari/537.36',
    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
    'Accept-Encoding': 'gzip, deflate, sdch',
    'Accept-Language': 'zh-CN,zh;q=0.8,en;q=0.6,zh-TW;q=0.4'
}

session = requests.session()

# 先GET一下登录页面获得隐藏字段
resp = session.get("http://ids.qfnu.edu.cn/authserver/login?service=http%3A%2F%2F202.194.188.19%2Fcaslogin.jsp", headers=headers)
bsObj = BeautifulSoup(resp.text, "html.parser")     
lt = bsObj.find('input', {'name':'lt'})['value']
execution = bsObj.find('input', {'name':'execution'})['value']

params = {
    'username': os.environ.get('STU_ID'),   # 环境变量获取的学号
    'password': os.environ.get('STU_PWD'), # 环境变量获取的密码
    'lt': lt,
    'execution': execution,
    '_eventId': 'submit',
    'rmShown': '1'
}

# post 数据登录成功
resp = session.post("http://ids.qfnu.edu.cn/authserver/login?service=http%3A%2F%2F202.194.188.19%2Fcaslogin.jsp", data=params, headers=headers)

用了Python的requests库进行页面的爬取,励志小哥写的这个库的确好用,特别是运用 requests.session()之后,处理好登录之后,再也不用管那些烦人的cookie 啥的了,用了BeautifulSoup来进行页面解析,用起来也是很顺手。开始有乱码,一看网页编码是gb2312的,稍微设置一下也OK了。
内容有了,当然要存储起来了,不然每次答题都有爬题库多麻烦,何况是些千年不变的东西。开始用的是MySQL,然而编码问题让人头疼,设置编码为gb2312,存储的时候说有内容 gb2312 又解析不了,于是程序就挂了。搞了很长时间也没搞定,还把我的 Sequel Pro 给搞挂了,f***!
静下心来一想,题库只要写数据库写一遍就OK了,但是答题的时候会频繁地查询数据库,用nosql数据库多好。题目做键,答案做值就行了。看过redis,但毕竟是内存型数据库,虽然快,但是还要做持久化,直接用mongodb吧,还没看过,刚好学习了,边学边用。
爬取并存储题库部分的代码:

tikubhs = [8692, 10988, 10989, 10990, 10991, 10992, 10993, 10994, 10995]  # 每一类题库的编号
pages = [153, 77, 13, 18, 22, 27, 10, 39, 12]  # 每一个题库的题目页数

from pymongo import MongoClient
client = MongoClient()
db = client.shitiDB    # 数据库名 shitiDB

shiti_table = db.shitis    # 表名 shitis

for tikubh, page_range in zip(tikubhs, pages):
    for page in range(1, page_range+1):
        url = "http://aqjy.qfnu.edu.cn/redir.php?catalog_id=6&cmd=learning&tikubh="+str(tikubh)+"&page="+str(page)
        resp = session.get(url)
        resp.encoding = 'gb2312'
        bsObj = BeautifulSoup(resp.text, "html.parser")
        shitis = bsObj.find_all('div', class_='shiti')
        daans = bsObj.find_all('span', style='color:#666666')
        values = []
        for timu_str, daan_str in zip(shitis, daans):
            shitibh = int(timu_str.h3.text[0:5])
            timu = timu_str.h3.text[6:]
            daan = daan_str.text[daan_str.text.find('标准答案')+5:].strip(' )')
            d = {'shitibh':shitibh, 'tikubh':tikubh, 'timu':timu, 'daan':daan}
            values.append(d)
        new_result = shiti_table.insert_many(values)

这一部分是最关键的部分,再这上面的耗时比较多,大部分时间都在研究他的数据的提交流程。
题目是分页的,且选择页面或点击上下页的时候,地址栏的地址是不变的,说明分页是通过js实现的,而不是直接用的链接:


研究得知,上下页和页面选择都是通过post数据标志到本页面实现的

搞懂了这些数据的意义和他们之间的关系,用代码模拟出来就OK了,当作到最后一页完成的时候,把tijiao标志也设为1,POST到原URL就完成了作答,这部分代码就不贴了,文末有GitHub链接。

ps: 本校的可以直接搭好拿来用就可以了,其他同学如有类似需求,这个系统是某公司开发的,好多学校都在用,folk一份改改应该也没问题。 戳到github吧,欢迎 star、folk。

上一篇下一篇

猜你喜欢

热点阅读