利用python整理需要的excel报表(上)

一、背景
目前公司的项目管理采用开源项目redmine,对于redmine本文不多做介绍,有兴趣的可以自行百度了解下。

在每周周会汇报任务进度时,需要我们准备各组的项目进度,按照一定的excel模板整理,然而我们的数据,任务情况,任务进度都在redmine中体现,因此每周相当于我们有这样一个工作:
将readmine中数据导出->确认开发的进度->整理样式->统计出固定模板的Excel。
可是我想偷偷懒,不想每次都整理这个Excel,因此想用Python搞定它。
二、需求分析
目前已知的是redmine中的任务id(每次建任务时会记录在excel中)。
接下来的就是根据id去获取对应信息,包括开发人,完成时间,上线版本等等,
然后根据固定的模板保存生成Excel。
整体的需求还是比较简单明确的。
三、所要的第三方Python组件
1.Requests
有http请求,肯定需要用到Requests库啦,方便好用。
2.BeautifulSoup
需要简单的从网页上爬去一些数据,BeautifulSoup还是比较方便的
3.xlrd,xlsxwriter
excel的读写操作,通常用xlrd读,用xlsxwriter写(效率高),但对于我们这种的数据量其实用xlwt也是可以的啦。
四、正式开发
做好了相应的准备工作,现在要正式开发啦。
由于才学Python没多久,当中遇到的坑还是挺多的,下面一步一步来看吧。
1. redmine网页的攻破
遇到的第一个困难就是如何获取页面上的数据了,也算是想学爬虫的入门吧,正好可以利用这次‘偷懒’去学习一下。
首先利用Chrome分析一下redmine的登录页:

在点击登录时,FormData中除了常规的username,passw之外有个authenticity_token,想必也是为了防止CSRF。
这个authenticity_token值在哪呢?只能继续分析登录页面,还好,找authenticity_token不是特别困难,名字取的一样,全局搜一下就找到了。

这样的话,貌似问题就解决的差不多了,开始编写代码。
利用requests.session()方法保持cookie

模拟伪造下hearder头

利用Requests获取请求

利用BeautifulSoup获取页面上所要的authenticity_token

模拟构造登录的PostData,实现登陆操作

尝试请求个页面你,看下是否登录成功


可以看到,对应的页面已经返回:
五、总结
今天就总结到这里,有空再写下半段,上半段主要发现了现实工作中反复工作的事情可以利用Python进行自动化,在分析完需求和所要的技术之后进行实践。
目前已经完成redmine的模拟登陆,并且能获取到我想要的页面。之后需要对获取的页面进行筛选,取到我们所要的数据,然后整理之后保存到Excel中,这样就大功告成了。