MySQL 锁问题
MyISAM 和 MEMORY 存储引擎采用的是表级锁;InnoDB 存储引擎即支持行级锁,也支持表级锁,但默认情况下采用行级锁
- 表级锁:开销小,加锁快;不会出现死锁;锁定粒度大,发生锁冲突的概率最高,并发速度最低。表级锁适合以查询为主,只有少量按索引条件更新数据的应用
- 行级锁:开销大,加锁慢;锁定粒度小,发生锁冲突的概率最低,并发度也最高。行级锁适合有大量按索引条件并发更新少量不同数据,同时又有并发查询的应用
MyISAM 表锁
查询表级锁争用情况
show status like 'table%';
检查 table_locks_waited
和 table_locks_immediate
状态变量来分析系统上的表锁定争夺。如果 table_locks_waited
的值比较高,则说明存在着较严重的表级锁争用情况
表级锁的锁模式
MySQL 的表级锁有两种模式:表共享读锁(table read lock)和表独占写锁(table write lock)
读锁不会堵塞其他用户对同一表的读请求,但会堵塞对同一表的写请求;写锁会堵塞其他用户对同一表的读和写操作;MyISAM 表的读和写操作之间,以及写操作之间都是串行的
如何加锁表
MyISAM 在执行查询语句(select)前,会自动给涉及的所有表加读锁,在执行更新操作(update,delete,insert)前,会自动给设计的表加写锁,这个过程并不需要用户干预,因此,用户一般不需要直接用 lock table
命令给 MyISAM 表显示加锁
给 MyISAM 表显示加锁,一般是为了在一定程度模拟事务操作,实现对某一时间点多个表的一致性读取
read local
的作用:在满足 MyISAM 表并发插入条件的情况下,允许其他用户在表尾并发插入记录
在用 lock tables
给表显示加表锁时,必须同时取得所有涉及表的锁,并且 MySQL 不支持锁升级。也就是说,在执行 lock tables
,只能访问显示加锁的这些表,不能访问未加锁的表;同时,如果加的是读锁,那么只能执行查询操作,不不能执行更行操作。在自动加锁的情况下也是如此,MyISAM 总是一次获得 SQL 语句所需要的全部锁。这也正是 MyISAM 表不会出现死锁(deadlock free)的原因
当使用 lock tables
时,不仅需要一次锁定用到的所有表,而且,同一个表在 SQL 语句中出现多少次,就要通过与 SQL 语句中相同的别名锁定多少次,否则也会出错
并发插入(Concurrent Inserts)
MyISAM 表的读写是串行的,在一定条件下,它也支持查询和插入操作的并发进行
MyISAM 存储引擎有一个系统变量 concurrent insert
,专门用以控制其并发插入的行为
- 当
concurrent_insert
设置为 0 时,不允许并发插入 - 当
concurrent_insert
设置为 1 时,如果 MyISAM 表中没有空洞(即表的中间没有被删除的行),MyISAM 允许在一个进程读表的同时,里另一个进程从表尾插入记录,这也是 MySQL 的默认设置 - 当
concurrent_insert
设置为 2 时,无论 MyISAM 表中有没有空洞,都允许在表尾并发插入记录
锁调度
如果一个进程请求某个表的读锁,同时另一个进程也请求同一表的写锁,MySQL 如何处理呢?答案是写进程先获得锁。不仅如此,即使读请求先到锁等待队列,写请求厚道,写锁也会插到读锁请求之前,这是因为 MySQL 认为写请求一般比读请求更重要。这也是 MyISAM 表不太适合于有大量更新操作和查询操作应用的原因,因为,大量的更新操作会造成查询操作很难获得读锁,从而可能永远堵塞。我们可以通过一些设置来调节 MyISAM 的调度行为
- 通过指定启动参数
low-priority-updates
,使 MyISAM 引擎默认给予读请求以优先权利 - 通过执行命令
set low_priority_updates=1
,使该连接发出的更新请求优先级降低 - 通过指定
inset
,update
,delete
语句的low_priority
属性,降低该语句的优先级
另外,MySQL 也提供了一种折中的办法来调节读写冲突,即给系统参数 max_write_lock_count
设置一个合适的值,当一个表的读锁达到这个值后,MySQL 就暂时将写请求的优先级降低,给读进程一定获得锁的机会
InnoDB 锁问题
innoDB 与 MyISAM 的最大不同有两点:一是支持事务(transaction),二是采用了行级锁
背景知识
事务及其 ACID 属性
事务是由一组 SQL 语句组成的逻辑处理单元,事务具有 4 个属性,通常简称为事务的 ACID 属性
- 原子性(atomicity):事务是一个原子操作单元,其对数据的修改,要么全都执行,要么全都不执行
- 一致性(consistent):在事务开始和完成时,数据都必须报之一致状态。这意味着所有相关的数据规则都必须应用于事务的修改,以保持数据的完整性;事务结束时,所有的内部数据结构也都必须时正确的
- 隔离性(isolation):数据库系统提供一定的隔离机制,保证事务在不受外部并发操作影响的独立环境执行。这意味着事务处理过程中的中间状态对外部是不可见的,反之亦然
- 持久性(durable):事务完成后,它对于数据的修改是永久性的,即使出现系统故障也能够保持
并发事务处理带来的问题
相对与串行处理来说,并发事务处理能大大增加数据库资源的利用率,提高数据库系统的事务吞吐量,从而可以支持更多的用户。但并发事务处理也会带来一些问题,主要包括以下几种情况:
- 更新丢失(lost update):当两个或多个事务选择同一行,然后基于最初选定的值更新该行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题,最后的更新覆盖了由其他事务所做的更新
- 脏读(dirty reads):一个事务正在对一条记录做修改,在这个事务完成并提交前,这条记录的数据就处于不一致状态;这时,另一个事务也来读取同一条记录,如果不加控制,第二个事务读取了这些脏数据,并据此做进一步的处理,就会产生未提交的数据依赖关系,这种现象被形象的叫做脏读
- 不可重复读(non-repeatable table):一个事务在读取某些数据后的某个时间,再次读取以前读过的数据,却发现其读出的数据已经发生了改变或者某些记录已经被删除了,这种现象就叫做不可重复读
- 幻读(phantom reads):一个事务按相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象就叫做幻读
事务隔离级别
在上面讲到的并发事务处理带来的问题中,更新丢失通常是应该完全避免的。但防止更新丢失,并不能单靠数据库事务控制器来解决,需要应用程序对要更新的数据加必要的锁来解决,因此,防止更新丢失应该是应用的责任
脏读,不可重复读,和幻读,其实都是数据库读一致性问题,必须由数据库提供一定的事务隔离机制来解决。数据库实现事务隔离的方式,基本上可以分为以下两种
- 一种是在读取数据前,对其枷锁,阻止其他事务对数据进行修改
- 另一种是不用加任何锁,通过一定机制生成一个数据请求时间点的一致性数据快照(snapshot),并用这个快照来提供一定级别(语句级或事务级)的一致性读取。从用户的角度来看,好像是数据库可以提供同一数据的多个版本,因此这种技术叫做数多版本并发控制(multiversion concurrent control,简称 MVCC 或 MCC),也经常称为多版本数据库
数据库的事务隔离越严格,并发副作用越小,付出的代价就越大,因为事务隔离实质上就是使事务在一定程度上串行化进行,这显然与并发是矛盾的。同时,不同的应用对读一致性和事务隔离程度的要求也是不同的
为了解决隔离与并发的矛盾,ISO/ANSI SQL92 定义了 4 个事务隔离级别,每个级别的隔离程度不同,允许出现的副作用也不同,应用可以根据自己的业务逻辑要求,通过选择不同的隔离级别来平衡隔离与并发的矛盾
隔离级别 | 读数据一致性 | 脏读 | 不可重复读 | 幻读 |
---|---|---|---|---|
未提交读(read uncommitted) | 最低级别,只能保证不读取物理上损坏的数据 | 是 | 是 | 是 |
已提交读(read committed) | 语句级 | 否 | 是 | 是 |
可重复读(repeatable read) | 事务级 | 否 | 否 | 是 |
可序列化(serializable) | 最高级别,事务级 | 否 | 否 | 否 |
获取 innoDB 行锁争用情况
检查 innodb_row_lock
状态变量来分析系统上行锁争夺情况
show status like 'innodb_row_lock';
如果发现争锁比较严重,如 innodb_row_lock_waits
和 innodb_row_lock_time_avg
的值比较高,可以通过查询 information_schema
数据库中相关的表来查看锁情况
InnoDB 的行锁模式及加锁方法
innodb 实现了以下两种类型的行锁
- 共享锁(S):允许一个事务去读一行,阻止其他事务获得相同数据集的排他锁
- 排他锁(X):允许获得排他锁的事务更新数据,阻止其他事务取得相同数据集的共享读锁和排他写锁
另外,为了允许行锁和表锁共存,实现多粒度锁机制,innodb 还有两种内部使用的意向锁(intention locks),这两种意向锁都是表锁
- 意向共享锁(IS):事务打算给数据行加行共享锁,事务在给一个数据行加共享锁前必须先取得该表的 IS 锁
- 意向排他锁(IX):事务打算给数据行加行排他锁,事务在给一个数据行加排他锁前必须先取得该表的 IX 锁
如果一个事务请求的锁模式与当前的锁兼容,innodb 就将请求的锁授予该事务;反之,如果两者不兼容,该事务就要等待锁释放
意向锁是 innodb 自动加的,不需用户干预。对于 update
,delete
,insert
语句,innodb 会自动给涉及的数据集加排他锁;对于普通的 select
语句,innodb 不会加任何锁
事务可以通过以下语句显示给记录集加共享锁或排他锁
- 共享锁:
select * from tablename where...lock in share mode;
- 排他锁:
select * from tablename where...for update;
用 select ...lock in share mode
获得共享锁,主要用在需要数据依存关系时来确认某行记录是否存在,并确保没有人对这个记录进行 update
或者 delete
操作。但是如果当前事务也需要对该记录进行更新操作,则很有可能造成死锁,对于锁定记录后需要进行更新操作的应用,应该使用 select ...for update
方式获得排他锁
innodb 行锁实现方式
innodb 行锁是通过给索引上的索引项加锁来实现的,如果没有索引,innodb 将通过隐藏的聚簇索引来记录加锁。innodb 行锁有 3 种情形
- record lock:对索引项加锁
- gap lock:对索引项之间的间隙,第一条记录前的间隙或最后一条记录后的间隙加锁
- next-key lock:前两种的组合,对记录及前面的间隙加锁
innodb 这种行锁实现特点意味着如果不通过索引条件检索数据,那么 innodb 将对表中的所有记录加锁,实际效果跟表锁一样。在实际应用中,要特别注意 innodb 行锁的这一特性,否则可能导致大量的锁冲突,从而影响并发性能
- 在不通过索引条件查询时,innodb 会锁定表中所有记录
- 由于 MySQL 的行锁是针对索引加的锁,不是针对记录加的锁,所以虽然是访问不同行的记录,但是如果是使用相同的索引键,是会出现锁冲突的
- 当表有多个索引的时候,不同的食物可以使用不同的索引锁定不同的行,不论时使用主键索引,唯一索引或普通索引,innodb 都会使用行锁来对数据加锁
- 即便在条件中使用了索引字段,但是否使用索引来检索数据是由 MySQL 通过判断不同执行计划的代价来决定的,如果 MySQL 认为全表扫描效率更高,比如对一些很小的表,它就不会使用索引,这种情况下 innodb 也会对所有记录加锁。因此,在分析锁冲突时,别忘了检查 SQL 的执行计划,以确认是否真正使用了索引
next-key 锁
当我们用范围条件而不是相等条件检索数据,并请求共享或排他锁时,innodb 会给复合条件的已有数据记录的索引项加锁;对于键值在条件范围内但并不存在的记录,叫做间隙(gap),innodb 也会对这个间隙加锁,这种锁机制就是所谓的 next-key 锁
在使用范围条件检索并锁定记录时,innodb 这种加锁机制会阻塞符合条件范围内键值的并发插入,这往往会造成严重的锁等待。因此,在实际应用开发中,尤其是并发插入比较多的应用,我们要尽量优化业务逻辑,尽量使用相等条件来访问更新数据,避免使用范围条件
innodb 除了通过范围条件加锁时使用 next-key 锁外,如果使用相等条件请求给一个不存在记录加锁,innodb 也会使用 next-key 锁
什么时候使用表锁
对于 innodb 表,在绝大部分情况下都应该使用行级锁,因为事务和行锁往往时我们选择 innodb 表的理由。但在个别特殊事务中,也可以考虑使用表级锁
- 第一种情况是:事务需要更新大部分或全部数据,表又比较大,如果使用默认的行锁,不仅这个事务执行效率低,而且可能造成其他事务长时间锁等待和锁冲突,这种情况下可以考虑使用表锁来提高该事务的执行速度
- 第二种情况是:事务涉及多个表,比较复杂,很可能引起死锁,造成大量事务回滚。这种情况也可以考虑一次性锁定事务涉及的表,从而避免死锁,减少数据因事务回滚带来的开锁
当然,应用中这两种事务不能太多,否则,就应该考虑使用 MyISAM 表了。在 innodb 下,使用表锁要注意以下两点
- 使用
lock tables
虽然可以给 innodb 加表级锁,但必须说明的是,表锁不是由 innodb 存储引擎层管理的,而是由其上一层(MySQL Server)负责的,仅当autocommit=0
,innodb_table_locks=1
(默认设置)时,innodb 层才知道 MySQL 加的表锁,MySQL Server 也才能感知 innodb 加的行锁,这种情况下,innodb 才能自动识别涉及表级锁的死锁;否则,innodb 将无法自动检查并处理这种死锁 - 在用
lock tables
对 innodb 表加锁时要注意,要将autocommit
设为 0,否则 MySQL 不会给表加锁;事务结束前,不要用unlock tables
释放表锁,因为unlock tables
会隐含的提交事务;commit
或rollback
并不能释放用lock tables
加的表级锁,必须用unlock tables
释放表锁
关于死锁
MyISAM 表锁是 deadlock free 的,这是因为 MyISAM 总是一次获得所需的全部锁,要么全部满足,要么等待,因此不会出现死锁。但在 innodb 中,除单个 SQL 组成的事务外,锁是逐步获得的,这就决定了在 innodb 中发生死锁是可能的
假如两个事务都需要获得对方持有的排他锁才能继续完成事务,这种循环锁等待就是典型的死锁
发生死锁后,innodb 一般都能自动检测到,并使一个事务释放锁并回退,另一个事务获得锁,继续完成事务。但在涉及外部锁或涉及表锁的情况下,innodb 并不能完全自动检测到死锁,这需要通过设置锁等待超时参数 innodb_lock_wait_timeout
来解决。需要说明的是,这个参数并不是只用来解决死锁问题,在并发访问比较高的情况下,如果大量事务因无法立即获得所需的锁而挂起,会占用大量计算机资源,造成严重性能问题,甚至拖垮数据库。通过设置合适的锁等待超时阈值,可以避免这种情况发生
通常来说,死锁都是应用设计的问题,通过调整业务流程,数据库对象设计,事务大小,以及访问数据库的 SQL 语句,绝大部分死锁都可以避免
- 在应用中,如果不同的程序会并发存取多个表,应尽量约定以相同的顺序来访问表,这样可以大大降低产生死锁的机会
- 在程序以批量方式处理数据的时候,如果事先对数据排序,保证每个线程按固定的顺序来处理记录,也可以大大降低出现死锁的可能
- 在事务中,如果要更新记录,应该直接申请足够级别的锁,即排他锁,而不应先申请共享锁,更新时再申请排他锁,因为当用户申请排他锁时,其他事务可能又已经获得了相同记录的共享锁,从而造成锁冲突,甚至死锁