做数据中
2017-09-12 本文已影响0人
一百八十斤大胖子
今天测试了一下数据回收回来的快速审核,除了本地工具,还写了一个小程序检验是不是同一个人,可惜,效率和准确率都有问题,先不做了!
把爬虫探测的微博的后台数据放到数据库,然后让每个人到一个接口上领uid,抓取完成后,该uid就销毁了,无意中做了个阅后即焚的接口。
数据抓到了300多,感觉太慢了!距离客户要求的速度差的太多!
PS:累到不想做任何事情了,最近几天迟到,起不来床,频繁发生
做数据中今天测试了一下数据回收回来的快速审核,除了本地工具,还写了一个小程序检验是不是同一个人,可惜,效率和准确率都有问题,先不做了!
把爬虫探测的微博的后台数据放到数据库,然后让每个人到一个接口上领uid,抓取完成后,该uid就销毁了,无意中做了个阅后即焚的接口。
数据抓到了300多,感觉太慢了!距离客户要求的速度差的太多!
PS:累到不想做任何事情了,最近几天迟到,起不来床,频繁发生
做数据中