大数据 爬虫Python AI Sql程序员Android知识

大文本数据的数据库存储

2017-02-20  本文已影响0人  AndyCLanguage

要点####

背景####

项目有一个需求就是将文本文件解析,然后保存到数据库中。最初的思考方式是采用读取文件一行数据(按行存储一个实体变量数据),解析数据为实体类,然后将该实体类存储至数据库中;该方法在测试过程中有一个致命缺点:处理时间长

分析####

将上述流程转化为比较容易理解的抽象图,如下:

文件数据保存至数据库(未优化).png

将子公司货物(单行数据)快速打包成货物(解析)并运送至交接位置处(内存),然后交由速度较慢的运送方式将货物运送至总部(数据库)。该方式为顺序流程,当货物运送至总部后才会再次从子公司重新开始运送货物。该方式有几个缺点:

优化####

通过分析将流程优化,优化后的抽象图如下:


文件数据保存至数据库(已优化).png

该流程分为两部分:

  该流程利用了多线程将流程分为两部分——数据存储数据解析,数据存储的速度较慢,因此最后总时间的计算是以数据存储为依据,也就是数据插入时间
  另一方面,程序使用了仓库,也就是队列的方式优化了数据的交接方式,将数据存储与数据解析分离,他们只通过队列才产生耦合。但是因为Android对内存的限制,所以需要合理设计仓库的大小,以防出现内存溢出。

注意:合理的设计数据解析与数据存储流程对队列的数据读写速度。

Code####

  通过上述的代码分析,应该对整体的流程有一个大概的思路,现在我们来看一下代码:

LinkedBlockingQueue queue = new LinkedBlockingQueue();
try {
    BufferedReader reader = new BufferedReader(new InputStreamReader(new BufferedInputStream(new FileInputStream(path))));
    String line = null;
    //初始化数据存储线程
    WriteDB writeDB = new WriteDB();
    new Thread(writeDB).start();
    //读取文本文件,并解析
    while ((line = reader.readLine())!=null){
        //通过该函数解析数据
        parase(line);
        //查询队列中的数据量,当数据为8000条时暂停数据解析线程
        if(queue.size() == 8000){
            Thread.currentThread().sleep(2*1000);
        }
    }
    reader.close();
    //告知数据存储线程读取线程结束
    writeDB.stop();

} catch (FileNotFoundException e) {
    e.printStackTrace();
} catch (IOException e) {
    e.printStackTrace();
} catch (Exception e) {
    e.printStackTrace();
}
private void parase(String s) throws Exception{
     //根据规则解析单行数据,并转化为实体
     String[] list = s.split("\\|");
     BagInfo bag = new BagInfo();
     bag.setBagID(list[0]);
     bag.setPileID(list[1]);
     bag.setTrayID(list[2]);
     //存入队列中
     queue.put(bag);
}
class WriteDB implements Runnable {
    private boolean isRun = true;
    @Override
    public void run() {
        //为了批量存储设置的列表,保存从队列中读取的数据
        List<BagInfo> bagInfos = new ArrayList<>();
        while (isRun || !queue.isEmpty()){
            Object obj = null;
            try {
                obj = queue.take();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
            bagInfos.add((BagInfo) obj);
            //当列表中的数据量达到2000时将数据批量存储至数据库中
            if(bagInfos.size() == 2000){
                DBService.getService().getBagInfoDao().insertInTx(bagInfos);
                bagInfos.clear();
            }
        }
        //处理当总数据量不是2000的整数倍时所剩余的数据
        if(!bagInfos.isEmpty()){
            DBService.getService().getBagInfoDao().insertInTx(bagInfos);
            bagInfos.clear();
        }
        queue = null;
    }

    public void stop(){
        isRun =false;
    }
}

后台监测####

  运行程序并监测后台,发现内存基本稳定在6M左右;测试5W多条的数据量总花费的时间为68s左右。监测图如下:

后台监测图.png
上一篇下一篇

猜你喜欢

热点阅读