kafka,netty,mmap,页缓存,缓存中间件Elasticsearchhello world

TiKV & TiDB相关笔记

2020-03-10  本文已影响0人  陀氏

github <tidb-in-action>

一、TiKV存储

简述

Region

将整个 Key-Value 空间分成很多段,每一段是一系列连续的 Key,将每一段叫做一个 Region,并且会尽量保持每个 Region 中保存的数据不超过一定的大小,目前在 TiKV 中默认是 96MB。每一个 Region 都可以用 [StartKey,EndKey) 这样一个左闭右开区间来描述。

  1. 以 Region 为单位,将数据分散在集群中所有的节点上,并且尽量保证每个节点上服务的 Region 数量差不多
  2. 以 Region 为单位做 Raft(数据) 的复制和成员管理:一个 Region 的多个 Replica 会保存在不同的节点上,构成一个 Raft Group。其中一个 Replica 会作为这个 Group 的 Leader,其他的 Replica 作为 Follower。所有的读和写都是通过 Leader 进行,(写)再由 Leader 复制给 Follower。

MVCC(多版本并发控制)

TiKV 的 MVCC 实现是通过在 Key 后面添加版本号来实现。可以直接通过 RocksDB 的 API: SeekPrefix(Key-Version),定位到第一个大于等于这个 Key_Version 的位置。

分布式 ACID 事务

TiKV 的事务采用的是 Google 在 BigTable 中使用的事务模型:Percolator
能保证要么全部成功,要么全部失败,不会出现的中间状态和脏数据。

二、TiDB如何使用TiKV

问题:如何存储数据?哪些作为key,哪些作为value?
对于一个 Table 来说,需要存储的数据包括三部分:

  1. 表中每一行的数据,以下简称表数据
  2. 表中所有索引的数据,以下简称索引数据
  3. 表的元信息
    对于表中每一行的数据,既可以选择行存也可以选择列存,两者各有优缺点,适用不同场景。
    TiDB 的首要目标是 OLTP 业务,要满足这类业务的需求,数据库需要支持快速的针对单行或者某些行的增、删、改、查等操作,所以 TiKV 的行存是比较合适该场景的。
    从 TiDB 3.1 开始(包括 TiDB 4.0),为了能够满足用户复杂的实时分析场景(OLAP?),TiDB 提供了一个叫做** TiFlash 的列存引擎**,它提供了列式的存储模式和快速的分析能力。列存的映射关系比较简单,这里暂且不表。

2.1 索引

索引数据,TiDB 同时支持主键和二级索引(包括唯一索引和非唯一索引)。在 OLTP 场景下,好的索引能够极大的提升 SQL 查询的性能,降低集群的整体负载。

  1. 对于 Insert 语句,既需要将表数据写入 KV 存储,也需要构造和存储对应的索引数据。
  2. 对于 Update 语句,需要在更新表数据的同时,也更新对应的索引数据(如果有必要的话)。
  3. 对于 Delete 语句,需要在删除表数据的同时,也删除对应的索引数据(如果有必要的话)。
  4. 对于 Select 语句,情况会复杂一些。用户希望数据库提供快速读取一行数据的能力,所以每行表数据最好有一个唯一 ID (显示或隐式的 ID)方便快速读取。其次用户也可能会连续地读取多行数据,比如 select * from user。最后还有通过索引读取数据的需求,对索引的使用可能是基于唯一索引或者主键的等值查询(业界常说的“点查”)或者是范围查询。
    当然,在有了 TiFlash 以后,全表扫更适合在 TiFlash 上进行,因为列式存储的优势,这种场景中它能提供更快的读取性能。

2.1.1 行数据的key设计

TiDB会为全集群生成唯一表ID,为表内数据生成唯一的行ID(有整型主键则是主键作为行ID),则数据如下:

Key:   tablePrefix{TableID}_recordPrefixSep{RowID}
Value: [col1, col2, col3, col4]

2.1.2 索引数据的 Key-Value 映射关系

TiDB 为表中每个索引分配了一个索引 ID,其中:
对于需要满足唯一性约束的主键或者唯一索引,按照如下规则编码成 (Key, Value) 键值对:

Key:   tablePrefix{tableID}_indexPrefixSep{indexID}_indexedColumnsValue
Value: RowID

对于不需要满足唯一性约束的普通二级索引,按照如下规则编码成 (Key, Value) 键值对:

Key:   tablePrefix{TableID}_indexPrefixSep{IndexID}_indexedColumnsValue_{RowID}
Value: null

2.2 元数据

另外存储于某个key中,将元信息编码后存储

2.3 SQL 层简介

TiDB 的 SQL层,即tidb-server,负责将 SQL 翻译成 KV 操作,转发给共享的分布式 KV 存储层 TiKV,并组装返回结果,最终返回查询结果。
举例:select count(*) from user where name='test',像这样一句语句,如果将数据返回到tiDB进行过滤、计数会浪费网络IO和无意义计算。可以将这类操作下放到tiKV,粗略描述如下图:

image.png

实际流程较复杂:


image.png

用户的 SQL 请求会直接或者通过Load Balancer发送到 tidb-server,tidb-server 会解析MySQL Protocol Packet,获取请求内容,然后做语法解析、查询计划制定和优化、执行查询计划获取和处理数据。数据全部存储在 TiKV 集群中,所以在这个过程中 tidb-server 需要和 TiKV 交互,获取数据。最后 tidb-server 需要将查询结果返回给用户。

三、关于调度

在这两个组件的后面,还有一个叫做 PD(Placement Driver)的组件,虽然不直接和业务接触,但是这个组件是整个集群的核心,负责全局元信息的存储以及 TiKV 集群负载均衡调度。

3.1 为什么要进行调度

image.png
整个系统是在动态变化,Region 分裂、节点加入、节点失效、访问热点变化等情况会不断发生,整个调度系统也需要在动态中不断向最优状态前进,因此我们需要一个中心节点,来对系统的整体状况进行把控和调整,所以有了 PD 这个模块。

3.2 调度的需求整理

作为一个分布式高可用存储系统,必须满足:副本数量不能多也不能少、副本需要分布在不同的机器上、新加节点后可以将其他节点上的副本迁移过来、节点下线后需要将数据迁移走。
作为一个良好的分布式系统,需要优化:维持整个集群的 Leader 分布均匀、维持每个节点的储存容量均匀、维持访问热点分布均匀控制 Balance 的速度,避免影响在线服务;管理节点状态,包括手动上线/下线节点,以及自动下线失效节点。
上述调度需求看似复杂,但是整理下来最终落地的无非是下面三件事:

3.3 信息收集

3.4 调度的策略

3.5 自动伸缩

TiDB 借助 TiDB Operator 和 PD 来实现 Auto-Scale。目前由 TiDB Operator 组件定期获取 TiDB / TiKV 的 metrics 信息后,通过 API 的方式暴露出期望的 TiDB/TiKV numbers,然后由 TiDB Operator 定期拉取 PD API 信息后,通过内部的 Auto-scaling 算法对 TidbCluster.Spec.Replicas 进行调整,从而实现Auto-scaling。

3.6 动态调度

3.7 根据负载动态分裂 ( Load Base Splitting)

3.8 热点隔离 (Isolate Frequently Access Region)

四、TiDB 和 MySQL 的区别

TiDB 作为开源 NewSQL 数据库的典型代表之一,同样支持 SQL,支持事务 ACID 特性。
在通讯协议上,TiDB 选择与 MySQL 完全兼容,并尽可能兼容 MySQL 的语法。
因此,基于 MySQL 数据库开发的系统,大多数可以平滑迁移至 TiDB,而几乎不用修改代码。对用户来说,迁移成本极低,过渡自然。
但仍有少量不兼容。

上一篇下一篇

猜你喜欢

热点阅读