HBase美文共赏学习空间

打造一个亿级平台的 Hbase集群-笔记

2021-10-08  本文已影响0人  卡门001

概念

分布式key-value数据库,面向数十亿数据的实时入库与快速的随机访问。上百万的QPS与PB级数据,需要专门学习。

Hbase与MP一起操作比较少见,与Java API操作较多。

组件构成
Hbase组件构成
数据存储,可存储

亿级平台集群

一、 服务器选型

内容如下:

确定集群的承载量

确定最大的承载量,是Hbase的最基础的需求。在处理能力适中的情况上,Hbase的处理能力是根据RegionServer横向扩展:比如集群总体10w/s读写能力,处理能力是根据RegionServer横向扩展,其集群的承载量设计如下:

集群的承载量设计

如此配置,每天的入库量在86亿条。计算规则:


1w/s * 3600秒/h * 24h * 10台主机 = 86400万 ,约等于86亿条

确定所需要的内存

Hbase内存型数据库是同存型数据库,数据写入规则:

  1. 先存储在Memostore中 ,

  2. 同时将经常查询的热数据缓存在内存中RedCache,提高性能。

Hbase内存型数据库

因此Hbase是对内存要求比较高的服务, 为了保证Hbase运行的稳定,线上要求Hbase的服务器的内存配置为:16GB、32GB、64GB

确定CPU核数

为了保证快速的对Hbase数据进行处理,我们选择4核、8核、16核。

根据对数据实时性要求高低配置不同的配置,如果对实时性要求不高的,我们选择4核16G,以够用为原则。CPU与内存的比例1/4,如下图:

CPU核数与内存关系表
确定磁盘类型和容量

1、磁盘选型:

以下需求选择SSD加快数据的读取效率:

以下需求选择HDS即可:

2、磁盘容量

根据数据量确定磁盘容量盘大小,参考如下指标:

方法:通过在测试环境写入一部份数据来确定每条数据大小,再根据存储长短与副本确定磁盘大小。

确定网络的承载量

Hbase的副本机制,需要将一份数据的多个副本实时存储在多个HDFS上,保存一个副本数据丢失,可以从其他副本中恢复数据。

对网络的要求是只要能保证网络能实时完成多副本写入数据即可

Hbase的副本机制

1、副本数与网络带宽算法

预估方式:


10kb * 10万/1024MB = 976MB

image.png

3 * 976MB/s = 2928MB/s  大约2.9GB

2、Rebalance

良好的网络运营环境,也能保障集群发生Rebalance所需要的时间不会太长。

服务器选型总结

项目 要点
数量承载量
所需内存 写入先缓存到Memstore、热数据缓存Redcache,16G、32G、64G
CPU型号与核数 和内存1/4的关系,对速度要求不高可选4核
磁盘选型与容量 SSD与HDD、
容量由“数据结构、压缩算法、副本数、数据存储时间
网络承载量 副本机制计算带宽、网络环境对Relance的影响

配置优化

操作系统和Hbase集群参数调优,以达最优性能表现。

一、 操作系统调优

同样适用于Mangodb、Cassandra、Elasticsearch等nosql数据库。

文件句柄数

Linux默认的句柄数为1024,不适合作为服务器的linux,修改如下:


echo "* soft nofile 65535" >>  /etc/security/limits.conf

echo "* hard nofile 65535" >>  /etc/security/limits.conf

最大虚拟内存

max_map_count: 定义为进程能拥有的最多的内存区域,建议设置如下:


sysctl -w vm.max_map_count=102400

Swap内存设置

Swap开启是为了服务器吞吐量,但Hbase需要一个内存操作都能快速执行的环境,关闭Swap会提高读效率,设置如下


echo  "vm.swappiness = 0" >> /etc/sysctl.conf

二、Hbase配置优化

配置优化项很多,这里讲主要参数

Hbase RegionServer的JVM内存配置

Hbase实时数据首先写入Memstore内存中,再到磁盘,同时缓存热点数据。

分配数量计算规则参考,以操作系统总内存为32G为例:

Hbase JVM堆内存:24G(3/4)

操作系统+JVM堆外内存:8G(1/4) -- 保存系统稳定运行

配置信息如下


hbase_regionserfver_opts -Xmx24g -Xms24g -Xmn6g

#Xmx - 设定程序启动时占用堆内存大小

#Xms - 设定程序运行期间最大可占用的内存大小(超出为OOM)

#Xmn - 年轻代大小

G1垃圾回收器能有效的降低JVM full CG的次数。


-XX: +UseG1GC #配置G1垃圾回收,JDK升级到11(jdk8不支持)

-XX: MaxGCPauseMillis = 500

-XX: +ParalleRefProcEnabled

-XX: -ResizePLAB

-XX: +ParalleGCThreads=8

-Xloggc: /data/log/hbase/gc/gc-%t.log

-XX: +PrintGCDetails

-XX: +PrintGCTimeStamps

-XX: +PrintGCCause

-XX: +PrintTenuringDistribution

-XX: +UseGCLogFileRotation

-XX: NumberOfGCLogFile=20

-XX: GCLogFileSize=5M

Hbase 线程参数设置

和CPU计算资源相关

regionserver同时支持的线程数

负载所有的compaction请求,当文件compaction总大小>(大于)throttlePoint,则compation分配给largeCompaction线程池,否则由smallCompaction线程池处理。

具体配置


# 配置throttlePoint,默认为2.5G

hbase.regionserver.thread.compaction.throttlePoint: 2.5G

# smallCompaction和largeCompaction线程池默认都只有1个线程

hbase.regionserver.thread.compaction.small: 4

hbase.regionserver.thread.compaction.large: 6

数据写入流程,数据合并与分裂的基本流程。

数据写入流程
  1. 先写入Memstore,超过阀值,写入StoreFile(HFile), 超过阀值,启动compaction,合并为一个StoreFile,当合并后的StoreFile大于hbase.regionserver.max.filesize所设置的参数时,会触发分裂动作,拆分为两个region

  2. hbase.regionserver.max.filesize的需大小适中。当filesize太小,则触发分裂的机率更大,系统整体访问服务会出现不稳定现象。当filesize太大,一次compaction 与split所需要的时间会较长,甚至产生停顿感,太大不适合常 compaction 与split,对应用读写冲击较大。

  3. 实战经验,高并发情况下,最佳大小是5~10G


# 参数的设置和单条数据的大小,和Region个数有关

# 参数调优必选项

hbase.regionserver.max.filesize 10G

  1. 高峰时关闭hbase表的major_compact

关闭hbase表的major_compact是为避免major_compact对系统性能的影响。非高峰时期时,再调用major_compact对hbase表进行大合并,可减少split时间极大的提升集群性能和吞吐量。

语句如下,


major_compact 'table_name'

regionserver cache的大小,


#表示占hbase整个堆内存的0.2

hfile.block.cache.size 0.2

往大的调,会提升查询性能;大量查询为主,写入频率不高的情况下,设置为0.5即可.

一个regionserver默认的memstore的大小,默认为64MB。参考平均每个regionserver管理的region数量,如果管理量不大,可适当往大调整,如下:


hfile.hregion.memstore.flush.size 512MB

upperLimit与lowerLimit指定memStore总使用内存大小百分比。upperLimit 开始刷盘百分比,lowerLimit 停止刷盘百分比。

upperLimit与lowerLimit的关系及作用

读取频繁写入不频繁:适当调小,让更多内存让给查询缓存。


hfile.regionserver.global.memstore.upperLimit 6  #开始刷盘

hfile.regionserver.global.memstore.lowerLimit 4  #停止刷盘

Hbase日常维护

指定RowKey规则

不合理的规则,会造成regionserver上的数据不均匀,造成数据倾斜,进行让某一个regionserver过热。

1、尽量保存Rowkey随机性

指定Rowkey规则

2、预创建分区


create 't1','f1',SPLITS_FILE => 'splits.txt';

预先根据可能的RowKey划分出多个Region而 不是一个,从而可以将后续的多个操作均衡到不同的Region上,避免热点现象的产生。

开启数据压缩

Hbase存储的数据以PB级别为主,将造成服务器磁盘费用过高。


create 'test',{NAME -> 'C', COMPRESSION => 'SNAPPY'};

Hbase默认的压缩算法有: GZ、LZO以及snappy,其中snappy算法其压缩率与性能最优。

监控告警

安装Cloudera 监控对Hbase实时状态进行监控。

上一篇下一篇

猜你喜欢

热点阅读