ITKeyword,专注技术干货聚合推荐

注册 | 登录

Memcache(MC)系列(八)Memcache ketama一致性哈希算法

xifeijian 2015-06-17

推荐:memcache一致性 hash 算法(consistent hashing)

consistent hashing 算法早在 1997 年就在论文 Consistent hashing and random trees 中被提出,目前在 cache 系统中应用越来越广泛; 1 基本场景 比如你有 N 个

一、概述

memcached 尽管是“分布式”缓存服务器,但服务器端并没有分布式功能。各个memcached 不会互相通信以共享信息。那么,怎样进行分布式呢?这完全取决于客户端的实现。最常见的分布算法有余数分布算法(结构简单,增减服务节点时对命中率影响相对较大)与一致哈希算法(算法相对复杂,使用虚拟节点,使缓存分布更加均匀,增减服务器节点对缓存命中率影响相对较小),各有利弊。

hash取模的方式。比如集群中可用机器适量为N,那么key值为K的的数据请求很简单的应该路由到hash(K) mod N对应的机器。这种结构是简单的,也是实用的。但是在一些高速发展的web系统中,这样的解决方案仍有些缺陷。随着系统访问压力的增长,缓存系统不得不通过增加机器节点的方式提高集群的相应速度和数据承载量。增加机器意味着按照hash取模的方式,在增加机器节点的这一时刻,大量的缓存命不中,缓存数据需要重新建立,甚至是进行整体的缓存数据迁移,瞬间会给DB带来极高的系统负载,甚至导致DB服务器宕机。二、一致性哈希(此下内容为转载,基本原理与算法介绍在http://blog.csdn.net/xifeijian/article/details/21994941 中也有描述)1、 hash机器节点首先求出机器节点的hash值(怎么算机器节点的hash?ip可以作为hash的参数吧。。当然还有其他的方法了),然后将其分布到0~2^32的一个圆环上(顺时针分布)。如下图所示:图一 集群中有机器:A , B, C, D, E五台机器,通过一定的hash算法我们将其分布到如上图所示的环上。2、访问方式如果有一个写入缓存的请求,其中Key值为K,计算器hash值Hash(K), Hash(K) 对应于图 – 1环中的某一个点,如果该点对应没有映射到具体的某一个机器节点,那么顺时针查找,直到第一次找到有映射机器的节点,该节点就是确定的目标节点,如果超过了2^32仍然找不到节点,则命中第一个机器节点。比如 Hash(K) 的值介于A~B之间,那么命中的机器节点应该是B节点(如上图 )。3、增加节点的处理如上图 – 1,在原有集群的基础上欲增加一台机器F,增加过程如下:计算机器节点的Hash值,将机器映射到环中的一个节点,如下图:图二 增加机器节点F之后,访问策略不改变,依然按照(2)中的方式访问,此时缓存命不中的情况依然不可避免,不能命中的数据是hash(K)在增加节点以前落在C~F之间的数据。尽管依然存在节点增加带来的命中问题,但是比较传统的 hash取模的方式,一致性hash已经将不命中的数据降到了最低。 Consistent Hashing最大限度地抑制了hash键的重新分布。另外要取得比较好的负载均衡的效果,往往在服务器数量比较少的时候需要增加虚拟节点来保证服务器能均匀的分布在圆环上。因为使用一般的hash方法,服务器的映射地点的分布非常不均匀。使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。下面有一个图描述了需要为每台物理服务器增加的虚拟节点。图三 x轴表示的是需要为每台物理服务器扩展的虚拟节点倍数(scale),y轴是实际物理服务器数,可以看出,当物理服务器的数量很小时,需要更大的虚拟节点,反之则需要更少的节点,从图上可以看出,在物理服务器有10台时,差不多需要为每台服务器增加100~200个虚拟节点才能达到真正的负载均衡。三、以spymemcache源码来演示虚拟节点应用1、上面描述的一致性Hash算法有个潜在的问题:

(1)、将节点hash后会不均匀地分布在环上,这样大量key在寻找节点时,会存在key命中各个节点的概率差别较大,无法实现有效的负载均衡。

(2)、如有三个节点Node1,Node2,Node3,分布在环上时三个节点挨的很近,落在环上的key寻找节点时,大量key顺时针总是分配给Node2,而其它两个节点被找到的概率都会很小。2、这种问题的解决方案可以有:

改善Hash算法,均匀分配各节点到环上;[引文]使用虚拟节点的思想,为每个物理节点(服务器)在圆上分配100~200个点。这样就能抑制分布不均匀,最大限度地减小服务器增减时的缓存重新分布。用户数据映射在虚拟节点上,就表示用户数据真正存储位置是在该虚拟节点代表的实际物理服务器上。在查看Spy Memcached client时,发现它采用一种称为Ketama的Hash算法,以虚拟节点的思想,解决Memcached的分布式问题。 3、源码说明该client采用TreeMap存储所有节点,模拟一个环形的逻辑关系。在这个环中,节点之前是存在顺序关系的,所以TreeMap的key必须实现Comparator接口。那节点是怎样放入这个环中的呢?[html] view plaincopy

protected void setKetamaNodes(List<MemcachedNode> nodes) {

TreeMap<Long, MemcachedNode> newNodeMap = new TreeMap<Long, MemcachedNode>();

int numReps= config.getNodeRepetitions();

//获取每台服务器需要添加的虚拟节点总数for(MemcachedNode node : nodes) {

//遍历node物理节点,为每个物理节点生成虚拟节点

// Ketama does some special work with md5 where it reuses chunks.

if(hashAlg == HashAlgorithm.KETAMA_HASH) {

for(int i=0; i<numReps / 4; i++) { //每4个虚拟结点组成一组

byte[] digest=HashAlgorithm.computeMd5(config.getKeyForNode(node, i));

//获取这组虚拟结点的name(4个1组)

for(int h=0;h<4;h++) {

//将16字节MD5拆分成4个4字节long型数值,作为虚拟节点在环中的key

Long k = ((long)(digest[3+h*4]&0xFF) << 24)

| ((long)(digest[2+h*4]&0xFF) << 16)

推荐:[置顶] “一致性哈希即Consistent Hashing” 和 “libconhash” 的学习感悟

最近学习了一致性哈希算法及其在分布式中的应用,并且自己读取了libconhash的C语言版实现的源码。对一致性哈希和分布式中的均衡颇有些感悟。 记下: libconhash

| ((long)(digest[1+h*4]&0xFF) << 8)

| (digest[h*4]&0xFF);

newNodeMap.put(k, node);

//节点map中添加key-value(节点key和指向的物理节点)。

getLogger().debug("Adding node %s in position %d", node, k);

}

}

} else {

for(int i=0; i<numReps; i++) {

newNodeMap.put(hashAlg.hash(config.getKeyForNode(node, i)), node);

}

}

}

assert newNodeMap.size() == numReps * nodes.size();

ketamaNodes = newNodeMap;

上面的流程大概可以这样归纳:四个虚拟结点为一组,以getKeyForNode方法得到这组虚拟节点的name,Md5编码后,每个虚拟结点对应Md5码16个字节中的4个,组成一个long型数值,做为这个虚拟结点在环中的惟一key。第10行k为什么是Long型的呢?就是因为Long型实现了Comparator接口。算法好像不太好理解,打印出来看看: public static void main(String args[]) {

byte[] digest = { '7', '8', '1', 'f', '3', '8', 'k', '-', 'v', 's', 'g', 'q', 'u', 'v', 'x', 'c' };

for (int h = 0; h < 4; h++) { //将16字节MD5拆分成4个4字节long型数值,作为虚拟节点在环中的key

Long k = ((long) (digest[3 + h * 4] & 0xFF) << 24) | ((long) (digest[2 + h * 4] & 0xFF) << 16) | ((long) (digest[1 + h * 4] & 0xFF) << 8)

| (digest[h * 4] & 0xFF);

System.out.println(k);

} }运行结果:171450168776200145919026051741668839029处理完正式结点在环上的分布后,可以开始key在环上寻找节点的游戏了。对于每个key还是得完成上面的步骤:计算出Md5,根据Md5的字节数组,通过Kemata Hash算法得到key在这个环中的位置。[html] view plaincopyMemcachedNode getNodeForKey(long hash) {

final MemcachedNode rv;

if(!ketamaNodes.containsKey(hash)) {

//如果不在当前节点上,则在环上顺时针查找。如果找到,直接取这个节点并返回。

// Java 1.6 adds a ceilingKey method, but I'm still stuck in 1.5

// in a lot of places, so I'm doing this myself.

SortedMap<Long, MemcachedNode> tailMap=getKetamaNodes().tailMap(hash);

//有序map,得到大于当前key的那个子Map,然后从中取出第一个key,就是大于且离它最近的那个key

if(tailMap.isEmpty()) {

//如果找不到,则hash重置为ketamaNodes的第一个key值,去到ketama node中第一个node

hash=getKetamaNodes().firstKey();

} else {

//如果找到,则重置hash为当前ketama node的第一个key值(即最近的一个)

hash=tailMap.firstKey();

}

}

rv=getKetamaNodes().get(hash);

//根据hash获取该key值在ketamaNodes中的位置(物理节点),并返回。

return rv;

}

tailMap(K fromKey) 方法用于返回此映射,其键大于或等于fromKey的部分视图。返回的映射受此映射支持,因此改变返回映射反映在此映射中,反之亦然。上边代码的实现就是在环上顺时针查找,没找到就去第一个,然后就知道对应的物理节点了。四、应用场景分析(getNodeForKey获取需要存储或提取的cacheserver)1、memcache的add方法:通过一致性hash算法确认当前客户端对应的cacheserver的hash值以及要存储数据key的hash进行对应,确认cacheserver,获取connection进行数据存储2、memcache的get方法:通过一致性hash算法确认当前客户端对应的cacheserver的hash值以及要提取数据的hash值,进而确认存储的cacheserver,获取connection进行数据提取五、总结1、一致性hash算法只是帮我们减少cache集群中的机器数量增减的时候,cache的数据能进行最少重建。只要cache集群的server数量有变化,必然产生数据命中的问题2、对于数据的分布均衡问题,通过虚拟节点的思想来达到均衡分配。当然,我们cache server节点越少就越需要虚拟节点这个方式来均衡负载。3、我们的cache客户端根本不会维护一个map来记录每个key存储在哪里,都是通过key的hash和cacheserver(也许ip可以作为参数)的hash计算当前的key应该存储在哪个节点上。4、当我们的cache节点崩溃了。我们必定丢失部分cache数据,并且要根据活着的cache server和key进行新的一致性匹配计算。有可能对部分没有丢失的数据也要做重建...5、至于正常到达数据存储节点,如何找到key对应的数据,那就是cache server本身的内部算法实现了,此处不做描述。

推荐:一致性哈希算法(Consistent Hashing)

应用场景 这里我先描述一个极其简单的业务场景:用4台Cache服务器缓存所有Object。 那么我将如何把一个Object映射至对应的Cache服务器呢?最简单的方法设置缓存

一、概述     memcached 尽管是“分布式”缓存服务器,但服务器端并没有分布式功能。各个memcached 不会互相通信以共享信息。那么,怎样进行分布式呢?这完全取决于客户端的实现。最常见的分布

相关阅读排行


用户评论

游客

相关内容推荐

最新文章

×

×

请激活账号

为了能正常使用评论、编辑功能及以后陆续为用户提供的其他产品,请激活账号。

您的注册邮箱: 修改

重新发送激活邮件 进入我的邮箱

如果您没有收到激活邮件,请注意检查垃圾箱。