hadoop

HDFS架构师3.0-元数据管理流程1(主节点双缓冲写)

2021-01-10  本文已影响0人  fat32jin
元数据写流程.png

1、以创建目录的场景 为例贯穿整个流程

自编客户端 FileTest 代码
_>▲★▼
FileSystem fileSystem=FileSystem.newInstance(configuration);
//场景驱动的方式(元数据的更新流程)
fileSystem.mkdirs(new Path("/usr/hive/warehouse/test/mydata"));
mkdirs 是抽象方法

//TODO 把元数据信息记录到磁盘上(但是一开始先写到内存)
//往磁盘上面记录元数据日志
fsd.getEditLog().logMkDir(cur, newNode);

                     ——1.1 》  FSEditLog.logMkDir()
                                                             ▼

//TODO 创建日志对象 【构建者模式】 注意积累
MkdirOp op = MkdirOp.getInstance(cache.get())
.setInodeId(newNode.getId())
.setPath(path)
.setTimestamp(newNode.getModificationTime())
.setPermissionStatus(permissions);

       //TODO 记录日志
             logEdit(op);

             ——1.1 .1》  FSEditLog.logEdit()
                                                             ▼

//TODO 步骤一:获取当前的独一无二的事务ID
long start = beginTransaction();
op.setTransactionId(txid);
//TODO 步骤二:把元数据写入到内存缓冲
//这儿的代码写得很晦涩。
editLogStream.write(op);
// check if it is time to schedule an automatic sync
// 看当前的内存大小是否 >= 512kb = true
// !true = false
//这个条件决定了,两个内存是否交换数据
//如果当前的内存写满了,512kb >= 512 kb 我们这儿就会返回true
// !ture = false
// !false =true
if (!shouldForceSync()) {
//TODO 说明这个条件就是进行元数据持久化的一个关键条件
return;
}
//TODO 如果到这儿就说明 当前的那个缓冲区存满了
isAutoSyncScheduled = true;
} //释放锁
//TODO 把数据持久化到磁盘
logSync();
//交换内存,持久化
▲18} 1:30:00

     ——1.1 .1.1》  FSEditLog.logSync()
上一篇下一篇

猜你喜欢

热点阅读