MLXY 2020-06-18
redis的字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表,而每个哈希表节点就保存了字典中的一个键值对。
1.哈希表
typedef struct dictht { //哈希表 dictEntry **table; //存放一个数组的地址,数组存放着哈希表节点dictEntry的地址 unsigned long size; //哈希表table的大小.初始化大小是4 unsigned long sizemask; //用于将哈希值映射到table的位置索引,它的值总是等于size-1 unsigned long used; //记录哈希表已有的节点的数值 } dictht;
2.哈希表节点
typedef struct dictEntry { void *key; //key union { void *val; uint64_t u64; int64_t s64; double d; } v; //value struct dictEntry *next; //指向下一个节点的指针 } dictEntry;
3.字典
typedef struct dict { dictType *type; //指向dictType结构,dictType结构中包含自定义的函数,这些函数使得key和value能够存储任何类型的数据。 void *privdata; //私有数据 dictht ht[2]; //ht[0] ht[1] long rehashidx; /* rehashing not in progress if rehashidx == -1 */ int iterators; /* number of iterators currently running */ } dict; typedef struct dictType { unsigned int (*hashFunction)(const void *key); void *(*keyDup)(void *privdata, const void *key); void *(*valDup)(void *privdata, const void *obj); int (*keyCompare)(void *privdata, const void *key1, const void *key2); void (*keyDestructor)(void *privdata, void *key); void (*valDestructor)(void *privdata, void *obj); } dictType;
哈希结构图如图:
4.哈希算法
要将一个键值加入到字典里面,程序会先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数组指定索引上面。
1.用于计算整型值的hash算法
/* Thomas Wang‘s 32 bit Mix Function */ unsigned int dictIntHashFunction(unsigned int key) { key += ~(key << 15); key ^= (key >> 10); key += (key << 3); key ^= (key >> 6); key += ~(key << 11); key ^= (key >> 16); return key; }
2.MurmurHash2哈希算法
优点是:即使输入的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度也非常快
//MurmurHash2哈希算法 unsigned int dictGenHashFunction(const void *key, int len) { /* ‘m‘ and ‘r‘ are mixing constants generated offline. They‘re not really ‘magic‘, they just happen to work well. */ uint32_t seed = dict_hash_function_seed; const uint32_t m = 0x5bd1e995; const int r = 24; /* Initialize the hash to a ‘random‘ value */ uint32_t h = seed ^ len; /* Mix 4 bytes at a time into the hash */ const unsigned char *data = (const unsigned char *)key; while(len >= 4) { uint32_t k = *(uint32_t*)data; k *= m; k ^= k >> r; k *= m; h *= m; h ^= k; data += 4; len -= 4; } /* Handle the last few bytes of the input array */ switch(len) { case 3: h ^= data[2] << 16; case 2: h ^= data[1] << 8; case 1: h ^= data[0]; h *= m; }; /* Do a few final mixes of the hash to ensure the last few * bytes are well-incorporated. */ h ^= h >> 13; h *= m; h ^= h >> 15; return (unsigned int)h; }
3.djb哈希算法
算法的思想是利用字符串中的ascii码值与一个随机seed,通过len次变换,得到最后的hash值。
//djb哈希算法 unsigned int dictGenCaseHashFunction(const unsigned char *buf, int len) { unsigned int hash = (unsigned int)dict_hash_function_seed; while (len--) hash = ((hash << 5) + hash) + (tolower(*buf++)); /* hash * 33 + c */ return hash; }
5.解决键冲突
如果是有键值对被分配到哈希表数组的同一个索引上面,redis的哈希表利用链表地址法,每一个哈希表节点都有一个next指针,多个哈希表节点都有一个next指针,多个哈希表可以用next指针构成一个单链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来。也就是哈希链表(忘记是在那本书上看到过还是哪个学长讲过)
6.rehash
rehash是随着操作的不断执行,哈希表保存的键值对会逐渐增多或减少,为了使哈希表的负载因子维持在一个合理的范围内,当哈希表保存饿键值对数量太多或者太少时,程序都要对哈希表进行rehash。
rehash分为三步:
1.为ht[1]分配合适空间大小;
如果是执行的扩容操作ht[1]分配的空间大小是第一个大于等于ht[0].used*2的 pow(2,n);
如果是执行的缩容操作ht[1]分配的空间大小是第一个大于等于ht[0].used的pow(2,n);
2.将ht[0]中所有的键值对重新计算键的hash值和索引值,然后将键值对放置到ht[1]上;
3.当所有的ht[0]都迁移到ht[1]之后,释放ht[0],将ht[1]置为ht[0],并给ht[1]新创建一个空的hash表
程序会自动rehash操作:
1.服务器目前没有在执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子大于等于1;
2.服务器目前在执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子大于等于5;
负载因子load_factor = ht[0].used / ht[0].size
//根据size调整d的哈希表 int dictExpand(dict *d, unsigned long size) { dictht n; /* the new hash table */ unsigned long realsize = _dictNextPower(size); // 获取第一个pow(2,x) 大于size的数 /* the size is invalid if it is smaller than the number of * elements already inside the hash table */ //dictIsRehashing查看当前dict是否在rehash //已有键值对的数量大于size if (dictIsRehashing(d) || d->ht[0].used > size) return DICT_ERR; /* Rehashing to the same table size is not useful. */ if (realsize == d->ht[0].size) return DICT_ERR; /* Allocate the new hash table and initialize all pointers to NULL */ n.size = realsize; n.sizemask = realsize-1; n.table = zcalloc(realsize*sizeof(dictEntry*)); n.used = 0; /* Is this the first initialization? If so it‘s not really a rehashing * we just set the first hash table so that it can accept keys. */ if (d->ht[0].table == NULL) { d->ht[0] = n; return DICT_OK; } /* Prepare a second hash table for incremental rehashing */ d->ht[1] = n; d->rehashidx = 0; return DICT_OK; }
7.渐进式rehash
哈希表渐进式rehash步骤:
1.为ht[1]分配空间,让字典同时拥有ht[0]和ht[1]两个哈希表;
2.在字典中维持一个索引计数器变量,rehashidx,并将值值为0,表示rehash开始;
3.在rehash期间,每次对字典执行增删查改操作时,程序除了执行指定的操作,还会顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehash到ht[1],当rehash完成后,程序将rehashidx属性值增一;
4.随着字典操作的不断执行,最终在某个时间点上ht[0]的所有键值对都会被rehash到ht[1],这时程序会讲rehashidx属性值为-1;
渐进式rehash将rehash键值所需的计算工作均摊到对字典的操作上,从而避免集中式rehash带来庞大的计算量。
//单步迭代 只有在dict的索引为0时开始 static void _dictRehashStep(dict *d) { if (d->iterators == 0) dictRehash(d,1); } //n步进行rehash int dictRehash(dict *d, int n) { int empty_visits = n*10; /* Max number of empty buckets to visit. */ if (!dictIsRehashing(d)) return 0; while(n-- && d->ht[0].used != 0) { dictEntry *de, *nextde; /* Note that rehashidx can‘t overflow as we are sure there are more * elements because ht[0].used != 0 */ assert(d->ht[0].size > (unsigned long)d->rehashidx); //dictEntry[rehashidx] 不为空 while(d->ht[0].table[d->rehashidx] == NULL) { d->rehashidx++; if (--empty_visits == 0) return 1; } de = d->ht[0].table[d->rehashidx]; /* Move all the keys in this bucket from the old to the new hash HT */ //遍历hash table[rehashidx]的全链表 while(de) { unsigned int h; nextde = de->next; /* Get the index in the new hash table */ h = dictHashKey(d, de->key) & d->ht[1].sizemask; de->next = d->ht[1].table[h]; //插入到表头 d->ht[1].table[h] = de; d->ht[0].used--; d->ht[1].used++; de = nextde; } d->ht[0].table[d->rehashidx] = NULL; d->rehashidx++; } /* Check if we already rehashed the whole table... */ if (d->ht[0].used == 0) { zfree(d->ht[0].table); d->ht[0] = d->ht[1]; _dictReset(&d->ht[1]); d->rehashidx = -1; return 0; } /* More to rehash... */ return 1; }