分布式系统的几种一致性问题(下)
文接上篇。 在上篇里我们介绍了, 消息时序的一致性 和 冗余表的一致性。 消息时序我们是利用LAMPORT时间戳来解决,允许大方向是消息有序小范围允许乱序的思想。而且主要还是以服务器端的时间为准。 在冗余表的一致性里,有2个重要的思想,一个是看先写哪个失败之后对业务影响更加小,另外一个是看对服务的性能要求有多高,而决定是同步还是异步。最后我们看如何对增量数据维护一个额外的修复机制,是拉还是推。
这篇文章是最后2个问题,分布式事务的一致性和库存扣减的一致性。
7. 分布式事务的一致性
一、案例缘起
我们经常使用事务来保证数据库层面数据的ACID特性。
举个栗子,用户下了一个订单,需要修改余额表,订单表,流水表,于是会有类似的伪代码:
start transaction;
CURDtable t_account; any Exception rollback;
CURDtable t_order; any Exceptionrollback;
CURDtable t_flow; any Exceptionrollback;
commit;
如果对余额表,订单表,流水表的SQL操作全部成功,则全部提交,如果任何一个出现问题,则全部回滚,以保证数据的一致性。
互联网的业务特点,数据量较大,并发量较大,经常使用拆库的方式提升系统的性能。如果进行了拆库,余额、订单、流水可能分布在不同的数据库上,甚至不同的数据库实例上,此时就不能用事务来保证数据的一致性了。这种情况下如何保证数据的一致性,是今天要讨论的话题。
二、补偿事务
补偿事务是一种在业务端实施业务逆向操作事务,来保证业务数据一致性的方式。
举个栗子,修改余额表事务为
int Do_AccountT(uid, money){
start transaction;
//余额改变money这么多
CURDtable t_account with money; anyException rollback return NO;
commit;
return YES;
}
那么补偿事务可以是:
int Compensate_AccountT(uid, money){
//做一个money的反向操作
returnDo_AccountT(uid, -1*money){
}
同理,订单表操作为
Do_OrderT,新增一个订单
Compensate_OrderT,删除一个订单
要保重余额与订单的一致性,可能要写这样的代码:
// 执行第一个事务
int flag = Do_AccountT();
if(flag=YES){
//第一个事务成功,则执行第二个事务
flag= Do_OrderT();
if(flag=YES){
// 第二个事务成功,则成功
returnYES;
}
else{
// 第二个事务失败,执行第一个事务的补偿事务
Compensate_AccountT();
}
}
该方案的不足是:
(1)不同的业务要写不同的补偿事务,不具备通用性
(2)没有考虑补偿事务的失败
(3)如果业务流程很复杂,if/else会嵌套非常多层
例如,如果上面的例子加上流水表的修改,加上Do_FlowT和Compensate_FlowT,可能会变成一个这样的if/else:
// 执行第一个事务
int flag = Do_AccountT();
if(flag=YES){
//第一个事务成功,则执行第二个事务
flag= Do_OrderT();
if(flag=YES){
// 第二个事务成功,则执行第三个事务
flag= Do_FlowT();
if(flag=YES){
//第三个事务成功,则成功
returnYES;
}
else{
// 第三个事务失败,则执行第二、第一个事务的补偿事务
flag =Compensate_OrderT();
if … else … // 补偿事务执行失败?
flag= Compensate_AccountT();
if … else … // 补偿事务执行失败?
}
}
else{
// 第二个事务失败,执行第一个事务的补偿事务
Compensate_AccountT();
if … else … // 补偿事务执行失败?
}
}
三、事务拆分分析与后置提交优化
单库是用这样一个大事务保证一致性:
start transaction;
CURDtable t_account; any Exception rollback;
CURDtable t_order; any Exceptionrollback;
CURDtable t_flow; any Exceptionrollback;
commit;
拆分成了多个库,大事务会变成三个小事务:
start transaction1;
//第一个库事务执行
CURDtable t_account; any Exception rollback;
…
// 第一个库事务提交
commit1;
start transaction2;
//第二个库事务执行
CURDtable t_order; any Exceptionrollback;
…
// 第二个库事务提交
commit2;
start transaction3;
//第三个库事务执行
CURDtable t_flow; any Exceptionrollback;
…
// 第三个库事务提交
commit3;
一个事务,分成执行与提交两个阶段,执行的时间其实是很长的,而commit的执行其实是很快的,于是整个执行过程的时间轴如下:
image第一个事务执行200ms,提交1ms;
第二个事务执行120ms,提交1ms;
第三个事务执行80ms,提交1ms;
那在什么时候系统出现问题,会出现不一致呢?
回答:第一个事务成功提交之后,最后一个事务成功提交之前,如果出现问题(例如服务器重启,数据库异常等),都可能导致数据不一致。
image如果改变事务执行与提交的时序,变成事务先执行,最后一起提交,情况会变成什么样呢:
image第一个事务执行200ms;
第二个事务执行120ms;
第三个事务执行80ms;
第一个事务执行1ms;
第二个事务执行1ms;
第三个事务执行1ms;
那在什么时候系统出现问题,会出现不一致呢?
问题的答案与之前相同:第一个事务成功提交之后,最后一个事务成功提交之前,如果出现问题(例如服务器重启,数据库异常等),都可能导致数据不一致。
image这个变化的意义是什么呢?
方案一总执行时间是303ms,最后202ms内出现异常都可能导致不一致;
方案二总执行时间也是303ms,但最后2ms内出现异常才会导致不一致;
虽然没有彻底解决数据的一致性问题,但不一致出现的概率大大降低了!
事务提交后置降低了数据不一致的出现概率,会带来什么副作用呢?
回答:事务提交时会释放数据库的连接,第一种方案,第一个库事务提交,数据库连接就释放了,后置事务提交的方案,所有库的连接,要等到所有事务执行完才释放。这就意味着,数据库连接占用的时间增长了,系统整体的吞吐量降低了。
四、总结
trx1.exec();
trx1.commit();
trx2.exec();
trx2.commit();
trx3.exec();
trx3.commit();
优化为:
trx1.exec();
trx2.exec();
trx3.exec();
trx1.commit();
trx2.commit();
trx3.commit();
这个小小的改动(改动成本极低),不能彻底解决多库分布式事务数据一致性问题,但能大大降低数据不一致的概率,带来的副作用是数据库连接占用时间会增长,吞吐量会降低。对于一致性与吞吐量的折衷,还需要业务架构师谨慎权衡折衷。
我的思考和启示
- 上述方法对现有事务的机制没有改动把失败概率尽可能降低。
- 如果真的发生失败,需要补救机制。这时就会比较麻烦。
- 我想到的做法是,针对这3个改动的事务每次COMMIT成功后打一条LOG。 如果有中间失败,需要人去做手动回滚了。
- 如果可以的话,是否能引入二阶段提交呢?
8. 库存一致性
image业务复杂、数据量大、并发量大的业务场景下,典型的互联网架构,一般会分为这么几层:
-
调用层,一般是处于端上的browser或者APP
-
站点层,一般是拼装html或者json返回的web-server层
-
服务层,一般是提供RPC调用接口的service层
-
数据层,提供固化数据存储的db
对于库存业务,一般有个库存服务,提供库存的查询、扣减、设置等RPC接口:
image-
库存查询,stock-service本质上执行的是
select num from stock where sid=$sid
-
库存扣减,stock-service本质上执行的是
update stock set num=num-sid
-
库存设置,stock-service本质上执行的是
update stock set num=sid
用户下单前,一般会对库存进行查询,有足够的存量才允许扣减:
image如上图所示,通过查询接口,得到库存是5。
用户下单时,接着会对库存进行扣减:
image如上图所示,购买3单位的商品,通过扣减接口,最终得到库存是2。
希望设计往往有容错机制,例如“重试”,如果通过扣减接口来修改库存,在重试时,可能会得到错误的数据,导致重复扣减:
image如上图所示,如果数据库层面有重试容错机制,可能导致一次扣减执行两次,最终得到一个负数的错误库存。
重试导致错误的根本原因,是因为“扣减”操作是一个非幂等的操作,不能够重复执行,改成设置操作则不会有这个问题:
image如上图所示,同样是购买3单位的商品,通过设置库存操作,即使有重试容错机制,也不会得到错误的库存,设置库存是一个幂等操作。
在并发量很大的情况下,还会有其他的问题:
image如上图所示,两个并发的操作,查询库存,都得到了库存是5。
接下来用户发生了并发的购买动作(秒杀类业务特别容易出现):
image如上图所示:
-
用户1购买了3个库存,于是库存要设置为2
-
用户2购买了2个库存,于是库存要设置为3
-
这两个设置库存的接口并发执行,库存会先变成2,再变成3,导致数据不一致(实际卖出了5件商品,但库存只扣减了2,最后一次设置库存会覆盖和掩盖前一次并发操作)
其根本原因是,设置操作发生的时候,没有检查库存与查询出来的库存有没有变化,理论上:
-
库存为5时,用户1的库存设置才能成功
-
库存为5时,用户2的库存设置才能成功
实际执行的时候:
-
库存为5,用户1的set stock 2确实应该成功
-
库存变为2了,用户2的set stock 3应该失败掉
升级修改很容易,将库存设置接口,stock-service上执行的:
update stock set num=sid
升级为:
update stock set num=sid and num=$num_old
这正是大家常说的“Compare And Set”(CAS),是一种常见的降低读写锁冲突,保证数据一致性的方法。
总结
在业务复杂,数据量大,并发量大的情况下,库存扣减容易引发数据的不一致,常见的优化方案有两个:
-
调用“设置库存”接口,能够保证数据的幂等性
-
在实现“设置库存”接口时,需要加上原有库存的比较,才允许设置成功,能解决高并发下库存扣减的一致性问题
我的思考和启示
- 设置可以保证幂等性,COMPARE AND SET 解决并发下的问题。