Redis分布式系统:集群

这篇具有很好参考价值的文章主要介绍了Redis分布式系统:集群。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Redis分布式系统:集群,Docker,redis,java

"还不如留给花园,多一瞬色彩~" 


        当我们聊到“集群”这一个词,我们脑中构想出的画面,一定是多台机器,构成的分布式系统,这可以被称为一个“集群”。其实,在前篇的哨兵机制下,奇数个监控哨兵,以及多组主从结构的数节点所构成的大的环境,就是一个“广义的集群”。

        但,在Redis中“集群”一词是有所区别的,在Redis中有一种模式也叫做“集群”,这种“狭义的集群”,主要是为了解决存储空间不足的问题。

——前言

Redis集群模式

        哨兵机制(模式)能够提高了系统的高可用性,能够对数据节点的性能进行有效监控。但,哨兵机制下,实质上仍然是主从节点存储整个数据集,存储的压力完完全全压在了主节点上,哨兵节点仅仅是作为一种警示器,并在数据节点出现问题时,做出一定的恢复操作。

        在现如今大数据“爆棚”的时代,如何获取足够大的空间?最有效、最直接的方法就是增加机器,所谓 "⼤数据" 的核⼼, 其实就是⼀台机器搞不定了, ⽤多台机器来搞。

        Redis 的集群就是在上述的思路之下,引入了多组Master/Slave,每一组存储数据全集的⼀部分, 从⽽构成⼀个更⼤的整体, 称为 Redis 集群。例如,我们现如今由1TB 数据,现在我们有三组

Master/Slave,每一组存储着1TB中的1/3,从而能够减少各组的存储压力。

Redis分布式系统:集群,Docker,redis,java

        由此,只要公司有足够多台机器,那么存储任意大小的数据都不在话下。


 

Redis数据分片        

        那么现在,我们的问题就在于,如何将要存储的数据进行划分呢?当给的一个数据Key,我们需要知道着Key应该被存储在哪一个分片上,读取时,又应该去哪一个分片上读取。围绕这个问题,我们能够很直观地想到使用 “哈希思想” 来解决这个问题。

        在Redis中,每一组节点可以被称为“片”。现目前,有三种主流的分片方式。

(1) 哈希求余

        借鉴了哈希表的基本思想:借助hash函数可以把一个key,映射到整数,再针对数组长度求得下表。

        例如,现在我们有三个分片,编号分别为0、1、2,此时我们得到一个key值,并通过哈希算法(比如使用: md5),再将这个结果%3,假设结果为0,那么这个key就应当被放在编号为0的分片上。        Redis分布式系统:集群,Docker,redis,java

哈希求余十分简单高效,我们可以通过精密设计哈希函数,让数据分布更加均匀

        然而,集群一旦进⾏扩容, N 改变了, 原有的映射规则被破坏,就需要让节点之间的数据相互传输,重新进行编排,以满足新的映射规则。此时,我们遍历所有分片中的数据,并通过重新的映射规则,将这些数据搬运到 新的分片之中。这巨大的搬运工作,无疑是耗时费力的。

(2) ⼀致性哈希算法

        为了降低搬运的工作,能够更⾼效扩容, 业界提出了 "⼀致性哈希算法"。

        哈希求余取得的值经过规则映射后,放到不同的分片之中,一旦规则发生改变,它们的在新的映射规则里,就会被放到新的分片之中。究其原因就在于,分片中的key值,在新的映射规则里,不再属于同组了,而是交叉的。存储在0号分片的数据,在新的规则下需要去到1号分片,而其他放在0号的数据,在新的规则下又得放在2号分片当中。

        在"⼀致性哈希算法"中,把集群中的地址空间映射到了一个逻辑上的圆环上,并通过hash算法将key值的结果放到对应的分片范围之中:        Redis分布式系统:集群,Docker,redis,java

        在这种情况下,出现一个新的分片,那么它需要在这个圆环中,选择一块新的范围,作为自己的分片管理范围。        Redis分布式系统:集群,Docker,redis,java

        此时, 只需要把 0 号分⽚上的部分数据,搬运给 3 号分⽚即可. 1 号分⽚和 2 号分⽚管理的区间都是不变的。这样极大减少了数据搬运的工作量。

优点: ⼤⼤降低了扩容时数据搬运的规模, 提⾼了扩容操作的效率.
缺点: 数据分配不均匀 (有的多有的少, 数据倾斜)

 

(3) 哈希槽分区算法

        最后这一种方法,也是Redis选择的方法。为了解决上述问题 (搬运成本⾼ 和 数据分配不均匀), Redis cluster 引⼊了哈希槽 (hash slots) 算法。

hash_slot = crc16(key) % 16384

        哈希槽总共会被分为个16384个槽位上,每一个key值被转换后,就会被放在这 [0, 16383] 的槽位上。然后再把这些槽位⽐较均匀的分配给每个分⽚. 每个分⽚的节点都需要记录⾃⼰持有哪些分片。例如,我们现如今有三个分片,可以进行如下的分配方式:

0 号分⽚: [0, 5461], 共 5462 个槽位
1 号分⽚: [5462, 10923], 共 5462 个槽位
2 号分⽚: [10924, 16383], 共 5460 个槽位

        这里的分片槽位是很灵活的,Redis内部是通过使用bitmap位图结构区分,这个分片上是否拥有该槽位号,这个位图至少占用占2KB空间(16384(bit)= 2048(byte) = 2 * 1024)。

        当我们新增⼀个 3 号分⽚时,就可以针对原有的槽位进⾏重新分配,⽐如可以把之前每个分⽚持有的槽位, 各拿出⼀点, 分给新分⽚:

⼀种可能的分配⽅式:
0 号分⽚: [0, 4095], 共 4096 个槽位
1 号分⽚: [5462, 9557], 共 4096 个槽位
2 号分⽚: [10924, 15019], 共 4096 个槽位
3 号分⽚: [4096, 5461] + [9558, 10923] + [15019, 16383], 共 4096 个槽位

        在我们实际操作中,不需要去指定哪些槽位要被分配,而是告诉Redis哪些分片能被分配Redis 会⾃动完成后续的槽位分配,以及对应的 key 搬 运的⼯作。当然这是后面的事情。

问题⼀: Redis 集群是最多有 16384 个分⽚吗?        

        当Redis分片被设计为16384时,那么每个分片只能对应一个槽位,要保证每个分片上的数据均匀时很难的。

        当分片包含的槽位够多时,能够直观反映出包含key 的数量。反之,当槽位数量非常少,槽位个数不一定能反应key的个数。实际上 Redis 的作者建议集群分⽚数不应该超过 1000

问题⼆: 为什么是 16384 个槽位?

        在集群中,各个节点通过心跳包通信。这些心跳包中包含了该节点所持有的槽(slots)。16384个槽位,需要2KB大的空间,这个值基本够用。如果设计为65536个,那么就需要8 KB 位图。如果放在计算机存储中看这个大小着实难以起眼,但在通信频繁的网络中,却十分吃网络带宽,会成为通信成本一个不小的开销。

        另外,Redis 集群⼀般不建议超过 1000 个分⽚所以 16k 对于最⼤ 1000 个分⽚来说是⾜够⽤

的, 同时也会使对应的槽位配置位图体积不⾄于很⼤。

Redis集群搭建

        我们仍是基于docker,模拟分布式系统的场景,在低配置的云服务器上完成Redis集群的搭建。

        Redis集群的拓扑图如下:

Redis分布式系统:集群,Docker,redis,java

(1) 创建目录和配置

        创建 redis-cluster ⽬录. 内部创建两个⽂件

Redis分布式系统:集群,Docker,redis,java

谈谈shell脚本

        在Linux系统中,以.sh结尾的文件,统称为“脚本”。我们使用Linux系统时,都是以命令的形式进行操作。这些命令,非常适合写到一个文件之中,进行批量化执行。同时,还能再这些文件之中加入条件、循环、函数等机制,从而能够完成一些复杂的工作。

① 生成Redis节点的配置文件

        generate.sh 内容如下:

for port in $(seq 1 9); \
    do \
    mkdir -p redis${port}/
    touch redis${port}/redis.conf
    cat << EOF > redis${port}/redis.conf
        port 6379
        bind 0.0.0.0
        protected-mode no
        appendonly yes
        cluster-enabled yes
        cluster-config-file nodes.conf
        cluster-node-timeout 5000
        cluster-announce-ip 172.30.0.10${port}
        cluster-announce-port 6379
        cluster-announce-bus-port 16379
    EOF
    done

for port in $(seq 10 11); \
    do \
    mkdir -p redis${port}/
    touch redis${port}/redis.conf
        cat << EOF > redis${port}/redis.conf
        port 6379
        bind 0.0.0.0
        protected-mode no
        appendonly yes
        cluster-enabled yes
        cluster-config-file nodes.conf
        cluster-node-timeout 5000
        cluster-announce-ip 172.30.0.1${port}
        cluster-announce-port 6379
        cluster-announce-bus-port 16379
    EOF
done

在我们的预期之中,得到11个目录,每一个目录中有一个节点配置文件,每个配置文件中的ip地址是不同的:

Redis分布式系统:集群,Docker,redis,java

bash generate.sh

         通过bash执行脚本后,我们得到如下目录表:
Redis分布式系统:集群,Docker,redis,java

以Redis1/redis.conf为例:

区别在于每个配置中配置的 cluster-announce-ip 是不同的, 其他部分都相同。
Redis分布式系统:集群,Docker,redis,java

👑 配置说明:

•  cluster-enabled yes 开启集群.
•  cluster-config-file nodes.conf 集群节点⽣成的配置
•  cluster-node-timeout 5000 节点失联的超时时间.
•  cluster-announce-port 6379 节点⾃⾝的业务端⼝.
•  cluster-announce-port 6379 节点⾃⾝的业务端⼝.
•  cluster-announce-bus-port 16379 节点⾃⾝的总线端⼝. 集群管理的信息交互 是通过这个端⼝进⾏的.

(2) 编写 docker-compose.yml

        在外面编写了各个节点启动时的配置文件后,到了现在使用docker去创建容器,并在这些容器中启动Redis服务。

① 创建局域网

        docker会为每一个新创建的容器创建新的局域网,各个局域网内部默认是不互通的。所以,在配置文件时,需要首先申请networks,并分配网段,“172.30.0.0/24”,这里分配网段,是为了契合redis.conf文件中写死的静态ip。

② 配置每个节点. 注意配置⽂件映射, 端⼝映射, 以及容器的 ip 地址

        每个容器都是独立的,所以它们可以使用相同的端口号。如果想要通过外部机器,访问容器内的端口,就需要在配置.yml文件中,建立容器端口和外界端口的映射关系。

此处的端⼝映射不配置也可以,。配置的⽬的是为了可以通过宿主机 ip + 映射的端⼝进⾏访问. 通过 器⾃⾝ ip:6379 的⽅式也可以访问。

Redis分布式系统:集群,Docker,redis,java

        我们使用docker compose统一启动容器:

Redis分布式系统:集群,Docker,redis,java     Redis分布式系统:集群,Docker,redis,java

Redis分布式系统:集群,Docker,redis,java

(3) 构建集群

        启动容器后,每一个容器上都 运行着redis-server,现在,需要我们使用:

# 创建集群
redis-cli --cluster create  redis_node(ip:port)  --cluster-replicas n

--cluster create 表⽰建⽴集群. 后⾯填写每个节点的 ip 和地址
--cluster-replicas n 表⽰每个主节点需要n个从节点备份

# 示例:
redis-cli --cluster create 172.30.0.101:6379 172.30.0.102:6379 
172.30.0.103:6379 172.30.0.104:6379 
172.30.0.105:6379 172.30.0.106:6379 172.30.0.107:6379 
172.30.0.108:6379 172.30.0.109:6379 --cluster-replicas 2
# 末尾表示从节点个数

        此处是把前 9 个主机构建成集群, 3 主 6 从. 后 2 个主机暂时不⽤(这两个作为之后扩容的主机待命)。参与构建集群的redis节点都是平等的,所以谁是主节点,谁是从节点不是固定的。但,你总得告诉Redis节点集群的特点(如上述:--cluster-replicas 2)。

    执行完成命令后,我们可以看到如下界面:
Redis分布式系统:集群,Docker,redis,java       

        如此,集群也就搭建好了。此时, 使⽤客⼾端连上集群中的任何⼀个节点, 都相当于连上了整个集群。

        正因为我们在docker-compose.yml文件中,建立了容器内外端口的映射,所以我们可以是使用两种不同的方式访问redis-server。

Redis分布式系统:集群,Docker,redis,java

# 查看集群节点信息
cluster nodes

Redis分布式系统:集群,Docker,redis,java

        现在,我们是否可以直接存储数据了呢?我们来试试看:

Redis分布式系统:集群,Docker,redis,java

        我们可以直观发现,直接插入这个值是报错的,其原因就在于,key1进行哈希映射后,应该存放的分片是第二个分片,而不是现目前的第一分片内。反观,我们直接插入key2,则能够插入成功,说明key2经过哈希映射后,就是第一分片内。

        那如何解决呢?难道拿着每个分片去试? 那肯定很太呆瓜了。

# 加上-c选项,会⾃动把请求重定向到对应节点
redis-cli -port xxx -c

Redis分布式系统:集群,Docker,redis,java        我们不仅成功插入了该节点值,访问请求也从第一个分片,重定向到了第二分片!

Redis分布式系统:集群,Docker,redis,java

        所以,在集群之后,Redis之前的有一些命令就无法正常使用。例如,获取多个key就无法正常执行,因为key都被分配到了不同的分片上。


Redis集群容灾、故障转移

        当集群中有节点挂了。如果是从节点,那还好说,因为它不承担写操作。可一旦是主节点挂了呢?一旦客户端发送的全都是写请求,无一例外都会失败。

        我们现在⼿动停⽌⼀个 master 节点, 观察其效果:

# 停止容器
docker stop redis1

        Redis分布式系统:集群,Docker,redis,java

        我们能够看到,在redis1挂掉之后,集群做的工作就同哨兵类似,会在当前片中选择出从节点,提拔为主节点。

        集群机制的处理,也叫做故障转移

故障转移:

        集群机制中的故障转移,同哨兵机制中这块的处理流程还是有一些细微不同的。

① 故障判断

        集群中的所有节点, 都会周期性的使⽤⼼跳包进⾏通信。

🥎节点 A 给 节点 B 发送 ping 包, B 就会给 A 返回⼀个 pong 包. ping 和 pong 除了 message type 属性之外, 其他部分都是⼀样的. 这⾥包含了集群的配置信息。

🥎每个节点, 每秒钟, 都会给⼀些随机的节点发起 ping 包, ⽽不是全发⼀遍。

🥎当节点 A 给节点 B 发起 ping 包, B 不能如期回应的时候, 此时 A 就会尝试重置和 B 的 tcp 连接, 看能 否连接成功. 如果仍然连接失败, A 就会把 B 设为 PFAIL 状态。

🥎A 判定 B 为 PFAIL 之后, 会通过 redis 内置的 Gossip 协议, 和其他节点进⾏沟通, 向其他节点确认 B 的状态。(每个节点都会维护⼀个⾃⼰的 "下线列表“)。

🥎此时 A 发现其他很多节点, 也认为 B 为 PFAIL, 并且数⽬超过总集群个数的⼀半, 那么 A 就会把 B 标 记成 FAIL (相当于客观下线), 并且把这个消息同步给其他节点。

        这也就是为什么我们使用cluster nodes时,看到redis1 的”FAIL“字样。

以下三种情况会出现集群宕机:
某个分⽚, 所有的主节点和从节点都挂了.
某个分⽚, 主节点挂了, 但是没有从节点.
超过半数的 master 节点都挂了.

② 故障迁移

        如果检测到故障的节点不是主节点,那么就不会执行故障迁移。如果故障节点是主节点就会,触发故障迁移了。所谓故障迁移, 就是指把从节点提拔成主节点, 继续给整个 redis 集群提供⽀持.

具体流程如下:

🏀 从节点判定⾃⼰是否具有参选资格。如果长时间都未与主节点通信过,那么从节点上的数据太过陈旧。

🏀具有资格的节点, ⽐如 C 和 D, 就会先休眠⼀定时间. 休眠时间 = 500ms 基础时间 + [0, 500ms] 随机时间 + 排名 * 1000ms. offset 的值越⼤, 则排名越靠前(越⼩)。 选取节点的过程不重要,重要的是选出节点作为主节点。

🏀 当C的休眠时间先到, C 就会给其他所有集群中的节点, 进⾏拉票操作。

🏀主节点就会把⾃⼰的票投给 C,当 C 收到的票数超过主节点数⽬的⼀半, C 就会晋升成主节点。(从节点是不会参与投票的)。

🏀同时, C 还会把⾃⼰成为主节点的消息, 同步给其他集群的节点. ⼤家也都会更新⾃⼰保存的集群结构信息.        
        上述选举的过程, 就是Raft 算法, 是⼀种在分布式系统中⼴泛使⽤的算法。在随机休眠时间的加持下, 基本上就是谁先唤醒, 谁就能竞选成功。
        所以,同哨兵机制的选举流程相比,故障迁移除去了 先选leader 再挑选主节点的过程,而是直接投票选出主节点。
        回到实验中来,当我们再次重启原来“挂了”的redis1时,redis1会直接变为从节点,正常运行。
         Redis分布式系统:集群,Docker,redis,java

Redis集群扩容

        扩容实在实际开发中比较常见的场景。随着业务的发展, 现有集群很可能⽆法容纳⽇益增⻓的数据. 此时给集群中加⼊更多新的机器, 就可以使 存储的空间更⼤了。

(1) 把新节点加⼊到集群        

        上⾯已经把 redis1 - redis9 重新构成了集群. 接下来把 redis10 和 redis11 也加⼊集群。

#  add-node 后的第⼀组地址是新节点的地址. 第⼆组地址是集群中的任意节点地址 表示要加入到的集群
redis-cli --cluster add-node 172.30.0.110:6379 172.30.0.101:6379

Redis分布式系统:集群,Docker,redis,java               

(2) 重新分配 slots

        上图能够很清晰地看到,我们新加的节点110是成为了主节点,但没有被分配任何slots。

# 重新分配 reshard 后的地址是集群中的任意节点地址
redis-cli --cluster reshard 172.30.0.101:6379

           执行后,首先提示我们需要多少个slots。

Redis分布式系统:集群,Docker,redis,java        填入新的id:Redis分布式系统:集群,Docker,redis,java       

Redis分布式系统:集群,Docker,redis,java          一般情况下,是选择第一种方法。

        搬运过程:

Redis分布式系统:集群,Docker,redis,java

        确定之后, 会初步打印出搬运⽅案, 让⽤⼾确认. 之后就会进⾏集群的 key 搬运⼯作. 这个过程涉及到数据搬运. 可能需要消耗⼀定的时间.

(3) 给新的主节点添加从节点

        光有主节点此时扩容的⽬标已经初步达成但是为了保证集群可⽤性,我们之前还创建了一个redis11,现在就是要将这个节点加入到才创建的主节点之中。

# 后面需要携带 作为从节点加入
redis-cli --cluster add-node 172.30.0.111:6379 172.30.0.101:6379 --cluster-slave
        执⾏完毕后, 从节点就已经被添加完成了,我们也可以查询得到。
Redis分布式系统:集群,Docker,redis,java

        

Redis集群缩容

        扩容是⽐较常⻅的, 但是缩容其实⾮常少⻅. 此处我们简单了解缩容的操作步骤即可。

        接下来演⽰把 110 111 这两个节点删除。

(1) 删除从节点

# redis-cli --cluster del-node [集群中任⼀节点ip:port] [要删除的从机节点 nodeId]
redis-cli --cluster del-node 172.30.0.101:6379 09cc4432e6a407c341186748ea4d5acd691d24a7

Redis分布式系统:集群,Docker,redis,java

(2) 重新分配 slots        

redis-cli --cluster reshard 172.30.0.101:6379

        执⾏后仍然进⼊交互式操作。此时要删除的主节点, 包含 4096 个 slots。这个注解上的这 4096 个 slots 分成三份 (1365 + 1365 + 1366), 分别分给其他三个主节点。这样可以使 reshard 之后的集群各个分⽚ slots 数⽬仍然均匀。

例:分配给 102 1365 个 slots

Redis分布式系统:集群,Docker,redis,java

        照此方式,我们将剩余的slot,依次分配给其他的主节点。

Redis分布式系统:集群,Docker,redis,java

(3) 删除主节点

        110 节点从集群中删除。

# redis-cli --cluster del-node [集群中任⼀节点ip:port] [要删除的从机节点 nodeId]
redis-cli --cluster del-node 172.30.0.101:6379 ac67fc8a7e1e02a3e1d231dd64db9789f4d02879

Redis分布式系统:集群,Docker,redis,java        ⾄此, 缩容操作完成.


总结:

        本篇我们谈论了如下的几个问题:
① 集群是什么?解决了说明问题?

② 数据分片算法:哈希求余、一致性哈希算法、哈希槽算法

③ 搭建redis集群

④ 集群容灾、故障转移

⑤ 集群扩容、缩容


本篇到此结束,感谢你的阅读。

祝你好运,向阳而生~

Redis分布式系统:集群,Docker,redis,java文章来源地址https://www.toymoban.com/news/detail-821141.html

到了这里,关于Redis分布式系统:集群的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 12. Redis分布式高可用集群搭建

    主从复制,哨兵,集群(master-cluster) 1. 主从模式 2. 哨兵 3. 集群(master-cluster) 1. 关闭防火墙,三台机器都执行 2. hostname修改,三台机器都执行,这一步是为了在内网中三台服务器能相互连通 3. 免登陆,三台机器都执行 4. 安装gcc并升级 5. 下载redis,在三台机器上都执行 6.创

    2024年02月14日
    浏览(39)
  • Redis分布式缓存之主从&哨兵&分片集群

    数据同步原理 集群伸缩:在集群中插入或删除某个节点 集群故障转移

    2024年02月04日
    浏览(38)
  • Redis-持久化、主从集群、哨兵模式、分片集群、分布式缓存

    数据丢失问题 : Redis是内存存储,服务重启可能会丢失数据 解决方案:利用Redis数据持久化,将数据写入磁盘 并发能力问题 : 单节点Redis并发能力虽然不错,单也无法满足如618这样的高并发场景 解决方案:搭建主从集群,实现读写分离 故障恢复问题 : 如果Redis宕机,则服

    2024年02月16日
    浏览(44)
  • 分布式项目08 redis的扩容,预备redis宕机的哨兵处理 和 最后集大成redis集群

    01.redis扩容 由于redis的容量也是有限的,所以,就会有扩容的操作。也就好像内存中扩容一样。redis有分片这种说法,具体实现操作如下: 第一步:首先在/usr/local/src中去找到redis文件夹。cd /usr/local/src 而后进入redis文件夹。使用的linux命令是 cd redis 。 第二步: 01.使用查看当前

    2024年02月05日
    浏览(35)
  • redis集群和分片-Redis Cluster:分布式环境中的数据分片、主从复制和 Sentinel 哨兵

    当涉及到 Redis 中的集群、分片、主从复制和 Sentinel 哨兵时,这些是构建分布式 Redis 环境中非常重要的概念和组件。下面详细介绍这些概念以及它们在分布式环境中的作用。 Redis Cluster 是 Redis 官方提供的分布式解决方案,用于管理和维护多个 Redis 节点的分布式数据存储。R

    2024年02月13日
    浏览(55)
  • Redis从入门到精通(十三)Redis分布式缓存(一)RDB和AOF持久化、Redis主从集群的搭建与原理分析

    单机Redis存在四大问题: 1)数据丢失问题; 2)并发能力问题; 3)故障恢复问题; 4)存储能力问题。 而Redis分布式缓存,即基于Redis集群来解决单机Redis存在的问题: 1)数据丢失问题:实现Redis数据持久化; 2)并发能力问题:搭建主从集群,实现读写分离; 3)故障恢复问

    2024年04月12日
    浏览(37)
  • Redis分布式系统:哨兵机制

    “普通到不普通的人,哭着笑着的人~”          Redis在主从复制的机制下,一旦主节点出现了故障宕机,不能提供服务后。就需要人工进行主从切换,重新从各从节点中选取新的主节点。同时大量的应用方请求被通知切换到新的主节点上。          当然,上述的一系列操

    2024年01月25日
    浏览(47)
  • Redis集群(分布式缓存):详解持久化、主从同步原理、哨兵机制、Cluster分片集群,实现高并发高可用

            单机式Redis存在以下问题,因此需要Redis集群化来解决这些问题        Redis数据快照,简单来说就是 把内存中的所有数据都记录到磁盘中 。当Redis实例故障重启后,从 磁盘读取快照文件,恢复数据 。快照文件称为RDB文件,默认是保存在当前运行目录。     (1)

    2024年02月08日
    浏览(55)
  • 动力节点Redis7笔记-第六章Redis分布式系统

    Redis分布式系统,官方称为Redis Cluster,Redis集群,其是Redis 3.0开始推出的分布式解决方案。其可以很好地解决不同Redis节点存放不同数据,并将用户请求方便地路由到不同Redis的问题。 分布式数据库系统会根据不同的数据分区算法,将数据分散存储到不同的数据库服务器节点上

    2024年02月07日
    浏览(39)
  • 微服务技术栈SpringCloud+RabbitMQ+Docker+Redis+搜索+分布式(五):分布式搜索 ES-下

    聚合(aggregations)可以实现对文档数据的统计、分析、运算。聚合常见的有三类: 桶(Bucket)聚合:用来对文档做分组 TermAggregation:按照文档字段值分组 Date Histogram:按照日期阶梯分组,例如一周为一组,或者一月为一组 度量(Metric)聚合:用以计算一些值,比如:最大值

    2024年03月26日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包