目录
- redis字典实现
- 哈希表节点结构
- 哈希表结构
- 字典
- 哈希算法
- 解决hash冲突
- rehash
- 渐进式hash
本笔记参考《redis设计与实现》 p24~ 37
redis字典实现
哈希表节点结构
typedef struct dictentry { // 键 void *key; // 值 : 可以是一个指针,或者是一个uint64/int64 的整数 union { void *val; uint64_t u64; int64_t s64 } v; // 指向下一个哈希表节点,形成链表 : 该指针可以将多个哈希值相同的键值对连接在一起,以此解决键冲突的问题。 struct dictentry *next; } dictentry;
哈希表结构
typedef struct dictht { // 哈希表数据 dictentry **table; // 哈希表集合大小 unsigned long size; // 哈希表大小掩码,用于计算索引值 // 总是等于 size - 1 unsigned long sizemask; // 哈希表已有节点数量 unsigned long used; } dictht;
字典
typedef struct dict { // 类型特定函数 dictype *type; // 私有数据 void *privdata; // 哈希表 dictht ht[2]; // rehash 索引 // 当rehash不在进行时, 值为-1 int rehashidx; } dict;
type属性和privdata属性针对不同类型的键值对,为多态字典而设置。
ht是包含两个项的数组,每个元素都是一个dictht哈希表,一般情况下字典之是哟个ht[0],ht[1]会在对ht[0]进行rehash的时候使用。
rehashidx记录了rehash目前的进度,如果目前没有在进行rehash,值为-1。
哈希算法
- 使用字典设置的哈希函数,计算key的hashvalue
hash = dict->type->hashfunction(key);
- 使用哈希表的sizemask属性和哈希值,计算出索引值
- 根据不同的情况,ht[x]可以是ht[0]或ht[1]
index = hash & dict->ht[x].sizemask;
redis使用的是murmurhash算法,优点是:输入的键是有规律的时候,算法仍然能给出很好的随机分布性,计算速度也快。
解决hash冲突
当有两个或以上的key分配到了hash table数组的同一个index上,称为发生了collision。
redis采用链地址法解决冲突,每个hash table节点都有一个next指针,多个hash table节点可以用next指针构成一个单向链表。为了速度考虑,程序总是会将新节点插入到链表头位置。
rehash
随着操作不断执行,哈希表保存的key value对会逐渐增加和减少。哈希表有一个统计参数load factor,即负载因子,公式如下:
# 负载因子 = 哈希表已经保存的节点数量 / 哈希表大小 load_factor = ht[0].used / ht[0].size;
为了维持负载因子在一个合理的范围,程序会对哈希表的大小进行相应的扩展或收缩,条件如下:
1、服务器目前没有执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子 >= 1
2、服务器正在执行bgsave命令或者bgrewriteaof命令,且负载因子 >= 5
- 在执行bgsave命令或者bgrewriteaof命令过程中,redis需要创建当前服务器进程的子进程,大多的os采用写时复制技术优化子进程的使用效率,所以子进程存在期间,**服务器会提高执行扩展操作的负载因子,避免在子进程存在期间进行哈希表的扩展操作,避免不必要的内存写入操作,最大限度节约内存。**当负载因子小于0.1时,程序自动对哈希表进行收缩操作。
- 此时就会进行扩展收缩,规则如下:
- 这里就是rehash(重新散列)操作了:
- 1、为字典的ht[1]哈希表分配内存空间,空间大小取决于要执行的操作,以及ht[0]当前包含的键值对数量(ht[0].used)
- 如果是扩展操作,ht[1]的大小为 >= ht[0].used * 2的 2的幂次方
- 如果是收缩操作,ht[1]的大小为 >= ht[0].used 的 2的幂次方
- 2、将保存在ht[0]中的所有键值对rehash到ht[1]上:即重新计算key的hashvalue以及indexvalue,然后将键值对放到ht[1]的指定位置
- 3、当ht[0]包含的所有键值对都迁移到ht[1]之后,ht[0]变为空表,释放ht[0],将ht[1]置为ht[0],在ht[1]重新分配一个空白的哈希表,为下一次rehash做准备
渐进式hash
rehash的动作并不是一次性集中完成的,而是分多次渐进完成。
如果哈希表中村的键值对数量很多,一次性将键值对全部rehash到ht[1]的计算量十分庞大,可能会导致服务器在一段时间内停止服务。
渐进式rehash采取分而治之的方法,将rehash键值对所需要的计算工作分摊到每次对字典的crud操作上,从而避免了集中式rehash带来的庞大计算量。
详细步骤如下:
1、为ht[1]分配空间,让字典同时持有ht[0]和ht[1]两个哈希表
2、在字典中维护一个索引计数器:rehashidx,将值设置为0,表示rehash工作正式开始。
3、在rehash进行期间,每次对字典的crud操作,程序除了执行指定操作以外,顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehash到ht[1]上,当rehash操作完成后,程序将rehashidx值++
4、重复迭代操作执行后,ht[0]的数据全部rehash到ht[1]上,将rehashidx设为-1,表明rehash操作已经完成
需要注意的地方
在rehash的过程中,对于字典的删除、查找、更新操作会在两个哈希表上执行。如想要查找一个键,现在ht[0]中找,没有找到再去ht[1]
对于insert操作来说,新添加到字典的键值对会一律保存到ht[1]中,不然还得多一次搬运。
到此这篇关于redis字典实现、hash键冲突以及渐进式rehash的文章就介绍到这了,更多相关redis 渐进式rehash内容请搜索www.887551.com以前的文章或继续浏览下面的相关文章希望大家以后多多支持www.887551.com!