共计 6845 个字符,预计需要花费 18 分钟才能阅读完成。
数据库中的索引和锁底层原理是什么,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面丸趣 TV 小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。
一、索引
在之前,我对索引有以下的认知:
索引可以加快数据库的检索速度;
表经常进行 INSERT/UPDATE/DELETE 操作就不要建立索引了,换言之:索引会降低插入、删除、修改等维护任务的速度;
索引需要占物理和数据空间;
了解过索引的最左匹配原则;
知道索引的分类:聚集索引和非聚集索引;
Mysql 支持 Hash 索引和 B + 树索引两种;
看起来好像啥都知道,但面试让你说的时候可能就 GG 了:
使用索引为什么可以加快数据库的检索速度啊?
为什么说索引会降低插入、删除、修改等维护任务的速度;
索引的最左匹配原则指的是什么?
Hash 索引和 B + 树索引有什么区别?主流的使用哪一个比较多?InnoDB 存储都支持吗?
聚集索引和非聚集索引有什么区别?
…….
1、聊聊索引的基础知识
首先 Mysql 的基本存储结构是页(记录都存在页里边):
各个数据页可以组成一个双向链表;
而每个数据页中的记录又可以组成一个单向链表;
每个数据页都会为存储在它里边儿的记录生成一个页目录,在通过主键查找某条记录的时候可以在页目录中使用二分法快速定位到对应的槽,然后再遍历该槽对应分组中的记录即可快速找到指定的记录;
以其他列 (非主键) 作为搜索条件:只能从最小记录开始依次遍历单链表中的每条记录。
所以说,如果我们写 select * from user where username = Java3y 这样没有进行任何优化的 sql 语句,默认会这样做:
定位到记录所在的页
需要遍历双向链表,找到所在的页
从所在的页内中查找相应的记录
由于不是根据主键查询,只能遍历所在页的单链表了
很明显,在数据量很大的情况下这样查找会很慢!
2、索引提高检索速度
索引做了些什么可以让我们查询加快速度呢?
其实就是将无序的数据变成有序(相对):
要找到 id 为 8 的记录简要步骤:
很明显的是:没有用索引我们是需要遍历双向链表来定位对应的页,现在通过 目录 就可以很快地定位到对应的页上了!
其实底层结构就是 B + 树,B+ 树作为树的一种实现,能够让我们很快地查找出对应的记录。
3、索引降低增删改的速度
如果一棵普通的树在极端的情况下,是能退化成链表的(树的优点就不复存在了)
B+ 树是平衡树的一种,是不会退化成链表的,树的高度都是相对比较低的 (基本符合矮矮胖胖(均衡) 的结构)【这样一来我们检索的时间复杂度就是 O(logn)】!从上一节的图我们也可以看见,建立索引实际上就是建立一颗 B + 树。
B+ 树是一颗平衡树,如果我们对这颗树增删改的话,那肯定会破坏它的原有结构;
要维持平衡树,就必须做额外的工作。正因为这些额外的工作开销,导致索引会降低增删改的速度;
4、哈希索引
除了 B + 树之外,还有一种常见的是哈希索引。
哈希索引就是采用一定的哈希算法,把键值换算成新的哈希值,检索时不需要类似 B + 树那样从根节点到叶子节点逐级查找,只需一次哈希算法即可立刻定位到相应的位置,速度非常快。
本质上就是把键值换算成新的哈希值,根据这个哈希值来定位。
看起来哈希索引很牛逼啊,但其实哈希索引有好几个局限(根据他本质的原理可得):
哈希索引也没办法利用索引完成排序;
不支持最左匹配原则;
在有大量重复键值情况下,哈希索引的效率也是极低的 —- 哈希碰撞问题;
不支持范围查询;
5、InnoDB 支持哈希索引吗?
主流的还是使用 B + 树索引比较多,对于哈希索引,InnoDB 是自适应哈希索引的(hash 索引的创建由 InnoDB 存储引擎引擎自动优化创建,我们干预不了)!
6、聚集和非聚集索引
简单概括:
聚集索引就是以主键创建的索引;
非聚集索引就是以非主键创建的索引;
区别:
聚集索引在叶子节点存储的是表中的数据;
非聚集索引在叶子节点存储的是主键和索引列;
使用非聚集索引查询出数据时,拿到叶子上的主键再去查到想要查找的数据。(拿到主键再查找这个过程叫做回表)
非聚集索引也叫做二级索引,不用纠结那么多名词,将其等价就行了~
非聚集索引在建立的时候也未必是单列的,可以多个列来创建索引。
此时就涉及到了哪个列会走索引,哪个列不走索引的问题了(最左匹配原则 – 后面有说)
创建多个单列 (非聚集) 索引的时候,会生成多个索引树(所以过多创建索引会占用磁盘空间)
在创建多列索引中也涉及到了一种特殊的索引 – 覆盖索引
我们前面知道了,如果不是聚集索引,叶子节点存储的是主键 + 列值
最终还是要“回表”,也就是要通过主键再查找一次。这样就会比较慢
覆盖索引就是把要查询出的列和索引是对应的,不做回表操作!
比如说:
现在我创建了索引(username,age),在查询数据的时候:select username , age from user where username = Java3y and age = 20。
很明显地知道,我们上边的查询是走索引的,并且,要查询出的列在叶子节点都存在!所以,就不用回表了~
所以,能使用覆盖索引就尽量使用吧~
7、索引最左匹配原则
最左匹配原则:
索引可以简单如一个列(a),也可以复杂如多个列(a, b, c, d),即联合索引。
如果是联合索引,那么 key 也由多个列组成,同时,索引只能用于查找 key 是否存在(相等),遇到范围查询 (、、between、like 左匹配) 等就不能进一步匹配了,后续退化为线性查找。
因此,列的排列顺序决定了可 *** 索引的列数。
例子:
如有索引(a, b, c, d),查询条件 a = 1 and b = 2 and c 3 and d = 4,则会在每个节点依次 ***a、b、c,无法 ***d。(很简单:索引 *** 只能是相等的情况,不能是范围匹配)
8、=、in 自动优化顺序
不需要考虑 =、in 等的顺序,mysql 会自动优化这些条件的顺序,以匹配尽可能多的索引列。
例子:
如有索引(a, b, c, d),查询条件 c 3 and b = 2 and a = 1 and d 4 与 a = 1 and c 3 and b = 2 and d 4 等顺序都是可以的,MySQL 会自动优化为 a = 1 and b = 2 and c 3 and d 4,依次 ***a、b、c。
9、索引总结
索引在数据库中是一个非常重要的知识点!上面谈的其实就是索引最基本的东西,要创建出好的索引要顾及到很多的方面:
1,最左前缀匹配原则。这是非常重要、非常重要、非常重要(重要的事情说三遍)的原则,MySQL 会一直向右匹配直到遇到范围查询(, ,BETWEEN,LIKE)就停止匹配。
3,尽量选择区分度高的列作为索引,区分度的公式是 COUNT(DISTINCT col) / COUNT(*)。表示字段不重复的比率,比率越大我们扫描的记录数就越少。
4,索引列不能参与计算,尽量保持列“干净”。比如,FROM_UNIXTIME(create_time) = 2016-06-06 就不能使用索引,原因很简单,B+ 树中存储的都是数据表中的字段值,但是进行检索时,需要把所有元素都应用函数才能比较,显然这样的代价太大。所以语句要写成:create_time = UNIX_TIMESTAMP(2016-06-06)。
5,尽可能的扩展索引,不要新建立索引。比如表中已经有了 a 的索引,现在要加(a,b)的索引,那么只需要修改原来的索引即可。
6,单个多列组合索引和多个单列索引的检索查询效果不同,因为在执行 SQL 时,MySQL 只能使用一个索引,会从多个单列索引中选择一个限制最为严格的索引。
二、锁
在 mysql 中的锁看起来是很复杂的,因为有一大堆的东西和名词:排它锁,共享锁,表锁,页锁,间隙锁,意向排它锁,意向共享锁,行锁,读锁,写锁,乐观锁,悲观锁,死锁。这些名词有的博客又直接写锁的英文的简写 — X 锁,S 锁,IS 锁,IX 锁,MMVC…
锁的相关知识又跟存储引擎,索引,事务的隔离级别都是关联的 ….
这就给初学数据库锁的人带来不少的麻烦~~~ 于是我下面就简单整理一下数据库锁的知识点,希望大家看完会有所帮助。
1、为什么需要学习数据库锁知识
不少人在开发的时候,应该很少会注意到这些锁的问题,也很少会给程序加锁(除了库存这些对数量准确性要求极高的情况下)
一般也就听过常说的乐观锁和悲观锁,了解过基本的含义之后就没了~~~
定心丸:即使我们不会这些锁知识,我们的程序在一般情况下还是可以跑得好好的。因为这些锁数据库隐式帮我们加了:
对于 UPDATE、DELETE、INSERT 语句,InnoDB 会自动给涉及数据集加排他锁(X);
MyISAM 在执行查询语句 SELECT 前,会自动给涉及的所有表加读锁,在执行更新操作(UPDATE、DELETE、INSERT 等)前,会自动给涉及的表加写锁,这个过程并不需要用户干预;
只会在某些特定的场景下才需要手动加锁,学习数据库锁知识就是为了:
能让我们在特定的场景下派得上用场
更好把控自己写的程序
在跟别人聊数据库技术的时候可以搭上几句话
构建自己的知识库体系!在面试的时候不虚
2、表锁简单介绍
首先,从锁的粒度,我们可以分成两大类:
表锁开销小,加锁快;不会出现死锁;锁定力度大,发生锁冲突概率高,并发度 ***;
行锁开销大,加锁慢;会出现死锁;锁定粒度小,发生锁冲突的概率低,并发度高;
不同的存储引擎支持的锁粒度是不一样的:
InnoDB 行锁和表锁都支持!
MyISAM 只支持表锁!
InnoDB 只有通过索引条件检索数据才使用行级锁,否则,InnoDB 将使用表锁
也就是说,InnoDB 的行锁是基于索引的!
表锁下又分为两种模式:
表读锁(Table Read Lock)
表写锁(Table Write Lock)
从下图可以清晰看到,在表读锁和表写锁的环境下:读读不阻塞,读写阻塞,写写阻塞!
读读不阻塞:当前用户在读数据,其他的用户也在读数据,不会加锁
读写阻塞:当前用户在读数据,其他的用户不能修改当前用户读的数据,会加锁!
写写阻塞:当前用户在修改数据,其他的用户不能修改当前用户正在修改的数据,会加锁!
从上面已经看到了:读锁和写锁是互斥的,读写操作是串行。
如果某个进程想要获取读锁,同时另外一个进程想要获取写锁。在 mysql 里边,写锁是优先于读锁的!
写锁和读锁优先级的问题是可以通过参数调节的:max_write_lock_count 和 low-priority-updates
值得注意的是:
MyISAM 可以支持查询和插入操作的并发进行。可以通过系统变量 concurrent_insert 来指定哪种模式,在 MyISAM 中它默认是:如果 MyISAM 表中没有空洞(即表的中间没有被删除的行),MyISAM 允许在一个进程读表的同时,另一个进程从表尾插入记录。
但是 InnoDB 存储引擎是不支持的!
3、乐观锁和悲观锁
无论是 Read committed 还是 Repeatable read 隔离级别,都是为了解决读写冲突的问题。
单纯在 Repeatable read 隔离级别下我们来考虑一个问题:
此时,用户李四的操作就丢失掉了:
丢失更新:一个事务的更新覆盖了其它事务的更新结果。
(ps: 暂时没有想到比较好的例子来说明更新丢失的问题,虽然上面的例子也是更新丢失,但一定程度上是可接受的.. 不知道有没有人能想到不可接受的更新丢失例子呢 …)
解决的方法:
使用 Serializable 隔离级别,事务是串行执行的!
乐观锁
悲观锁
乐观锁是一种思想,具体实现是,表中有一个版本字段,*** 次读的时候,获取到这个字段。处理完业务逻辑开始更新的时候,需要再次查看该字段的值是否和 *** 次的一样。如果一样更新,反之拒绝。之所以叫乐观,因为这个模式没有从数据库加锁,等到更新的时候再判断是否可以更新。
悲观锁是数据库层面加锁,都会阻塞去等待锁。
3.1、悲观锁
所以,按照上面的例子。我们使用悲观锁的话其实很简单(手动加行锁就行了):
select * from xxxx for update
在 select 语句后边加了 for update 相当于加了排它锁(写锁),加了写锁以后,其他的事务就不能对它修改了!需要等待当前事务修改完之后才可以修改.
也就是说,如果张三使用 select … for update,李四就无法对该条记录修改了~
3.2、乐观锁
乐观锁不是数据库层面上的锁,是需要自己手动去加的锁。一般我们添加一个版本字段来实现:
具体过程是这样的:
张三 select * from table — 会查询出记录出来,同时会有一个 version 字段
李四 select * from table — 会查询出记录出来,同时会有一个 version 字段
李四对这条记录做修改:update A set Name=lisi,version=version+1 where ID=#{id} and version=#{version},判断之前查询到的 version 与现在的数据的 version 进行比较,同时会更新 version 字段
此时数据库记录如下:
张三也对这条记录修改:update A set Name=lisi,version=version+1 where ID=#{id} and version=#{version},但失败了!因为当前数据库中的版本跟查询出来的版本不一致!
4、间隙锁 GAP
当我们用范围条件检索数据而不是相等条件检索数据,并请求共享或排他锁时,InnoDB 会给符合范围条件的已有数据记录的索引项加锁;对于键值在条件范围内但并不存在的记录,叫做“间隙(GAP)”。InnoDB 也会对这个“间隙”加锁,这种锁机制就是所谓的间隙锁。
值得注意的是:间隙锁只会在 Repeatable read 隔离级别下使用~
例子:假如 emp 表中只有 101 条记录,其 empid 的值分别是 1,2,…,100,101
Select * from emp where empid 100 for update;
上面是一个范围查询,InnoDB 不仅会对符合条件的 empid 值为 101 的记录加锁,也会对 empid 大于 101(这些记录并不存在)的“间隙”加锁。
InnoDB 使用间隙锁的目的有两个:
为了防止幻读(上面也说了,Repeatable read 隔离级别下再通过 GAP 锁即可避免了幻读)
满足恢复和复制的需要 MySQL 的恢复机制要求:在一个事务未提交前,其他并发事务不能插入满足其锁定条件的任何记录,也就是不允许出现幻读
5、死锁
并发的问题就少不了死锁,在 MySQL 中同样会存在死锁的问题。
但一般来说 MySQL 通过回滚帮我们解决了不少死锁的问题了,但死锁是无法完全避免的,可以通过以下的经验参考,来尽可能少遇到死锁:
1)以固定的顺序访问表和行。比如对两个 job 批量更新的情形,简单方法是对 id 列表先排序,后执行,这样就避免了交叉等待锁的情形;将两个事务的 sql 顺序调整为一致,也能避免死锁。
2)大事务拆小。大事务更倾向于死锁,如果业务允许,将大事务拆小。
3)在同一个事务中,尽可能做到一次锁定所需要的所有资源,减少死锁概率。
4)降低隔离级别。如果业务允许,将隔离级别调低也是较好的选择,比如将隔离级别从 RR 调整为 RC,可以避免掉很多因为 gap 锁造成的死锁。
5)为表添加合理的索引。可以看到如果不走索引将会为表的每一行记录添加上锁,死锁的概率大大增大。
6、锁总结
上面说了一大堆关于 MySQL 数据库锁的东西,现在来简单总结一下。
表锁其实我们程序员是很少关心它的:
在 MyISAM 存储引擎中,当执行 SQL 语句的时候是自动加的。
在 InnoDB 存储引擎中,如果没有使用索引,表锁也是自动加的。
现在我们大多数使用 MySQL 都是使用 InnoDB,InnoDB 支持行锁:
共享锁 – 读锁 –S 锁
排它锁 – 写锁 –X 锁
在默认的情况下,select 是不加任何行锁的~ 事务可以通过以下语句显示给记录集加共享锁或排他锁。
共享锁(S):SELECT * FROM table_name WHERE … LOCK IN SHARE MODE。
排他锁(X):SELECT * FROM table_name WHERE … FOR UPDATE。
InnoDB 基于行锁还实现了 MVCC 多版本并发控制,MVCC 在隔离级别下的 Read committed 和 Repeatable read 下工作。MVCC 能够实现读写不阻塞!
InnoDB 实现的 Repeatable read 隔离级别配合 GAP 间隙锁已经避免了幻读!
乐观锁其实是一种思想,正如其名:认为不会锁定的情况下去更新数据,如果发现不对劲,才不更新(回滚)。在数据库中往往添加一个 version 字段来实现。
悲观锁用的就是数据库的行锁,认为数据库会发生并发冲突,直接上来就把数据锁住,其他事务不能修改,直至提交了当前事务
看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注丸趣 TV 行业资讯频道,感谢您对丸趣 TV 的支持。