Redis设计与实现——字典(渐进式rehash细节)
字典是一种用于保存键值对的数据结构。在字典中,一个键(key)可以和一个值(value)进行关联(或者说将键映射为值),这些关联的键和值就称为键值对。
字典的实现
Redis 的字典使用哈希表作为底层实现,每个字典带有两个哈希表,一个平时使用,另一个仅在进行 rehash 过程中使用,一个哈希表里面可以有多个哈希表节点,每个哈希表节点就保存了字典中的一个键值对。
哈希表 hashtable
Redis 字典所使用的哈希表由 dict.h/dictht
结构定义:
1 | typedef struct dictht { |
table
属性是一个数组,数组中的每个元素都是一个指向 dict.h/dictEntry
结构的指针,每个 dictEntry
结构保存着一个键值对。size
属性记录了哈希表的大小, 也即是 table
数组的大小, 而 used
属性则记录了哈希表目前已有节点(键值对)的数量。sizemask
属性的值总是等于 size - 1
, 这个属性和哈希值一起决定一个键应该被放到 table
数组的哪个索引上面(原理类似 Java 中的 HashMap)。
哈希表节点
哈希表节点使用 dictEntry
结构表示,每个 dictEntry
结构都保存着一个键值对:
1 | typedef struct dictEntry { |
key
属性保存着键值对中的键,而 v
属性则保存着键值对中的值,值可以是一个指针,或者是一个 uint64_t
整数,又或者是一个 int64_t
整数。
next
属性是指向另一个 dictEntry
哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一次,以此来解决键冲突的问题,即使用链地址法解决键哈希冲突,被分配到同一个索引上的多个键值对会连接成一个单向链表。
解决键冲突
当有两个或以上数量的键被分配到了哈希表数组的同一个索引上面时,我们称这些键发生了冲突。
Redis 的哈希表使用链地址法(separate chaining)来解决键冲突: 每个哈希表节点都有一个
next
指针, 多个哈希表节点可以用next
指针构成一个单向链表, 被分配到同一个索引上的多个节点可以用这个单向链表连接起来, 这就解决了键冲突的问题。为什么使用头插法?
因为
dictEntry
节点组成的链表没有指向链表表尾的指针, 所以为了速度考虑, 程序总是将新节点添加到链表的表头位置(复杂度为 O(1)), 排在其他已有节点的前面。
下图展示了如何通过 next
指针,将两个索引值相同的键 k1
和 k0
连接在一起:
字典
Redis 中的字典由 dict.h/dict
结构表示:
1 | typedef struct dict { |
type
属性和 privdata
属性是针对不同类型的键值对,为创建多态字典而设置的。
ht
属性是一个大小为 2 的数组,数组中的每个元素都是一个 dictht
哈希表。一般情况下,字典只使用 ht[0]
哈希表,ht[1]
哈希表只会在对 ht[0]
哈希表进行 rehash 时使用。rehashidx
记录了 rehash 目前的进度,如果目前没有进行 rehash,则值为 -1 。
下图展示了一个普通状态下(没有进行 rehash)的字典:
哈希算法
当要将一个新的键值对添加到字典里面时, 程序需要先根据键值对的键计算出哈希值和索引值, 然后再根据索引值, 将包含新键值对的哈希表节点放到哈希表数组的指定索引上面。
Redis 计算哈希值和索引值的方法如下:
1 | 使用字典设置的哈希函数,计算键 key 的哈希值 |
rehash
为了让哈希表的负载因子(ht[0].used / ht[0].size
)维持在一个合理范围之内,当哈希表保存的键值对数量过多或者过少时,程序需要对哈希表的大小进行相应的扩展和收缩。扩展和收缩哈希表的工作可以通过执行rehash(重新散列)操作来完成。rehash 的步骤如下:
为字典的
ht[1]
哈希表分配空间, 这个哈希表的空间大小取决于要执行的操作, 以及ht[0]
当前包含的键值对数量 (也即是ht[0].used
属性的值):如果执行的是扩展操作, 那么
ht[1]
的大小为第一个大于等于ht[0].used * 2
的 2^n (2
的n
次方幂)。比如ht[0].used=5
,那么此时ht[1]
的大小就为16,因为大于10的第一个2^n的值是16。如果执行的是收缩操作, 那么
ht[1]
的大小为第一个大于等于ht[0].used
的 2^n 。
将保存在
ht[0]
中的所有键值对 rehash 到ht[1]
中(rehash 指的是重新计算键的哈希值和索引值, 然后将键值对放置到ht[1]
哈希表的指定位置上)。当
ht[0]
包含的所有键值对都迁移到了ht[1]
之后 (ht[0]
变为空表),释放ht[0]
,并将ht[1]
设置为ht[0]
,并在ht[1]
新创建一个空白哈希表,为下一次 rehash 做准备。
哈希表的扩展和收缩时机
- 当服务器目前没有在执行 BGSAVE 命令或者 BGREWRITEAOF 命令,并且哈希表的负载因子大于等于
1
时,程序会自动开始对哈希表执行扩展操作。 - 当服务器目前正在执行 BGSAVE 命令或者 BGREWRITEAOF 命令,并且哈希表的负载因子大于等于
5
时,程序会自动开始对哈希表执行扩展操作。
其中哈希表的负载因子可以通过公式:
1
2 负载因子 = 哈希表已保存节点数量 / 哈希表大小
load_factor = ht[0].used / ht[0].size在执行 BGSAVE 命令或 BGREWRITEAOF 命令的过程中, Redis 需要创建当前服务器进程的子进程, 而大多数操作系统都采用写时复制(copy-on-write)技术来优化子进程的使用效率, 所以在子进程存在期间, 服务器会提高执行扩展操作所需的负载因子, 从而尽可能地避免在子进程存在期间进行哈希表扩展操作, 这可以避免不必要的内存写入操作, 最大限度地节约内存。
- 当哈希表的负载因子小于
0.1
时,程序自动开始对哈希表执行收缩操作。
渐进式 rehash
扩展或收缩哈希表需要将 ht[0]
里面的所有键值对 rehash 到 ht[1]
里面,但是为了避免 rehash 对服务器性能造成影响, 服务器不是一次性将 ht[0]
里面的所有键值对全部 rehash 到 ht[1]
, 而是分多次、渐进式地将 ht[0]
里面的键值对慢慢地 rehash 到 ht[1]
。
为什么要使用渐进式 rehash
渐进式 rehash 的好处在于它采取分而治之的方式,将 rehash 键值对所需的计算工作分摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式 rehash 而带来的庞大计算量。
如果ht[0]
元素很多,显然一次性 rehash 成本会很大,庞大的计算量可能会导致服务器在一段时间内停止服务,从而影响到 Redis 性能。因为 Redis 不管是老版本(只支持单线程的版本)还是现在的多线程版本,最终执行命令的还是单线程,一次性 rehash 可能会导致主线程卡顿。
哈希表渐进式 rehash 过程
- 为
ht[1]
分配空间,让字典同时持有ht[0]
和ht[1]
两个哈希表。 - 在字典中维持一个索引计数器变量
rehashidx
,并将它的值设置为0
,表示 rehash 工作正式开始。 - 在 rehash 进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了会执行指定的操作以外,还会顺带将
ht[0]
哈希表在rehashidx
索引上的所有键值对 rehash 到ht[1]
,当 rehash 工作完成之后,将rehashidx
属性的值加 1,即从索引 0 开始顺序迁移。 - 随着字典操作的不断执行,最终在某个时间点上,
ht[0]
的所有键值对都会被 rehash 至ht[1]
, 此时将rehashidx
属性的值设为-1
,表示 rehash 操作已完成。
渐进式 rehash 执行期间的哈希表操作
在渐进式 rehash 时,因为字典会同时使用ht[0]
和ht[1]
两个哈希表,所以此时对字典的删除、查找和更新操作都可能会在两个哈希表进行。
如果要查找一个键时,先在
ht[0]
中查找,如果没找到,则会继续到ht[1]
中查找。新添加到字典的键值对一律会被保存到
ht[1]
里面,而ht[0]
则不再进行任何添加操作。
参考资料
《Redis 设计与实现》——黄健宏