Redis当中的大Key如何进行处理

这篇具有很好参考价值的文章主要介绍了Redis当中的大Key如何进行处理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

本篇文章我们主要聊一下什么是Redis当中的大Key、大Key会造成什么影响、我们如何找到大key,如何删除大key.
Redis当中的大Key如何进行处理

什么是大key

很多铁子可能会认为大key,是这个key的值很大其实不是,而是key的value值很大一般对于下面这些我们可以称为大key.

  • String 类型值大于10KB。
  • Hash、List、Set、Zset类型元素个数超过5000个。

大key会造成什么影响

这个大key主要会带来下面这几种影响:

  • 阻塞工作线程:如果我们使用del命令删除大key,会阻塞工作线程这样就没有办法处理其他客户端发过来的命令了。
  • 内存分布不均: 集群模型在slot分片均匀情况下会出现数据和查询倾斜的情况,部分有大key的Redis结点占用内存较多。
  • 客户端超时阻塞: Redis的工作线程只有一个,操作这个大key会比较耗时会阻塞Redis在客户端看来就说很久很久没有响应。
  • 引发网络阻塞: 每次获取大key产生的网络流量比较大,这对于网卡比较小的服务器是灾难性的。

如何找到大key

1.我们可以通过redis客户端提供的命令 redis-cli --bigkeys.来查看

[root@VM-4-17-centos redis]# redis-cli --bigkeys

# Scanning the entire keyspace to find biggest keys as well as
# average sizes per key type.  You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).

[00.00%] Biggest string found so far '"k1"' with 2 bytes
[00.00%] Biggest hash   found so far '"ksyi"' with 100 fields

-------- summary -------

Sampled 2 keys in the keyspace!
Total key length in bytes is 6 (avg len 3.00)

Biggest   hash found '"ksyi"' has 100 fields
Biggest string found '"k1"' has 2 bytes

0 lists with 0 items (00.00% of keys, avg size 0.00)
1 hashs with 100 fields (50.00% of keys, avg size 100.00)
1 strings with 2 bytes (50.00% of keys, avg size 2.00)
0 streams with 0 entries (00.00% of keys, avg size 0.00)
0 sets with 0 members (00.00% of keys, avg size 0.00)
0 zsets with 0 members (00.00% of keys, avg size 0.00)

注意:

  • 在使用这个命令来查询大key时,最好在从节点上执行。如果在主节点上执行会阻塞从节点。
  • 如果没有这个从节点,那么我们可以选择在Redis业务压力比较轻的时候执行避免影响正常的业务功能;或者我们可以使用**-i选项**来控制扫描间隔避免长时间扫描降低Redis的性能。

这个方式其实也有缺点,他之只能返回每种类型最大的那个bigkey,无法获得大小在前N位的bigkey。
2.使用memory usage命令进行查询
MEMORY USAGE命令给出一个key和它的值在RAM中所占用的字节数。返回的结果是key的值以及为管理该key分配的内存总字节数。
对于嵌套数据类型,可以使用选项SAMPLES,其中count表示抽样的元素个数,默认值为5。当需要抽样所有元素时,使用SAMPLES 0 。
其语法如下:

MEMORY USAGE key [SAMPLES count]

下面我们来演示一下

127.0.0.1:6379> memory usage ksyi
(integer) 496

3.通过scan命令来查找大key
我们可以先使用scan命令对数据库进行扫描,然后用type命令返回每一个key的类型。
对于String类型,我们可以直接使用strlen命令获取字符串的长度,也就是占用内存的字节数。

如何删除大key

如果我们一下子释放大量的内存,空闲内存块链表操作时间会增加,相应地就会造成Redis主线程阻塞,如果redis主线程发生了阻塞其他客户端的请求可能会超时,如果超时的连接越来越多会造成各自异常问题。
因此我们删除大key这一个动作我们要特别的小心具体要怎么做这里给出两种方法:

  • 渐进式删除
  • 异步删除(unlink)

渐进式删除
1.对于string类型
对于这个String类型的大key我们可以使用del直接删除如果这个他确实很大我们可以使用unlink来进行异步删除 。这个特别简单在这里就不演示了。

2.对于Hash类型
对于删除大的Hash类型,我们可以使用hscan命令每次获取100个字段,这个个数根据业务来确定然后我们在使用hdel命令每次删除一个字段即可。
对应golang代码

package main

import (
	"fmt"
	"github.com/go-redis/redis"
)

func DelBigHashKey(conn *redis.Client) {
	bigKey := "xxx"
	cursor := uint64(0)
	for {

		ScanRet := conn.HScan(bigKey, cursor, "", 100)
		keys, c, err := ScanRet.Result()
		if err != nil {
			panic(err)
		}
		fmt.Println(keys)
		for i := 0; i < len(keys); i++ {
			conn.HDel(bigKey, keys[i])
		}
		if c == 0 {
			break
		}
		cursor = c
	}
}
func main() {
	conn := redis.NewClient(&redis.Options{
		Addr:     "101.35.98.26:6379", // url
		Password: "",                  //redis密码
		DB:       0,                   // 0号数据库
	})
	_, err := conn.Ping().Result()
	if err != nil {
		fmt.Println("ping err :", err)
		return
	}

	DelBigHashKey(conn)

}

3.对应删除大的List,通过ltrim命令每次迭代删除少量元素

// DelBigListKey 删除大的Listkey
func DelBigListKey(conn *redis.Client) {
	bigKey := "xxx" //要删除的大key
	for conn.LLen(bigKey).Val() > 0 {
		conn.LTrim(bigKey, 0, -101) //每次删除最右边100个元素
	}
}

4.删除大的Set 可以先使用sscan获取部分元素,比如每次扫描集合当中100个元素在用srem命令每次删除一个键

func DelBigSetKey(conn *redis.Client) {
	bigKey := "xxx"     //要删除的大key
	cursor := uint64(0) //游标
	for {
		keys, c, err := conn.SScan(bigKey, cursor, "", 100).Result()
		if err != nil {
			panic(err)
		}
		cursor = c
		for i := 0; i < len(keys); i++ {
			fmt.Println(conn.SRem(bigKey, keys[i]).Val())
		}
		if c == 0 {
			//删除完毕
			break
		}
	}
}

对于删除Zset,使用zremrangebyrank命令每次删除top 100元素

func DelBigZsetKey(conn *redis.Client) {
	bigKey := "xxx"
	for conn.ZCard(bigKey).Val() > 0 {
		conn.ZRemRangeByRank(bigKey, 0, 99)
	}
}

以上就是针对大key删除的方案。

异步删除
除了上面的删除方案我们可以采用异步删除的方式可以使用unlink命令代替del来删除这样就不会阻塞主线程。

如何禁用keys*、flushdb 、flushall等命令

如果我们想要禁用这些命令我们可以在redis.conf 默认配置文件,找到 SECURITY 区域,如以下所示:
Redis当中的大Key如何进行处理
这样这些命令就被禁用了。
Redis当中的大Key如何进行处理
Redis有两个原语来删除键。一种称为DEL,是对象的阻塞删除。这意味着服务器停止处理新命令,以便以同步方式回收与对象关联的所有内存。如果删除的键与一个小对象相关联,则执行DEL命令所需的时间非常短,可与大多数其他命令相媲美
Redis 中的O(1)或O(log_N)命令。但是,如果键与包含数百万个元素的聚合值相关联,则服务器可能会阻塞很长时间(甚至几秒钟)才能完成操作。
基于上述原因,Redis还提供了非阻塞删除原语,例如UNLINK(非阻塞DEL)以及FLUSHALL和FLUSHDB命令的ASYNC选项,以便在后台回收内存。这些命令在恒定时间内执行。另一个线程将尽可能快地逐步释放后台中的对象。
FLUSHALL和FLUSHDB的DEL、UNLINK和ASYNC选项是用户控制的。这取决于应用程序的设计,以了解何时使用其中一个是个好主意。然而,作为其他操作的副作用,Redis服务器有时不得不删除键或刷新整个数据库。具体而言,Redis在以下场景中独立于用户调用删除对象:
Redis当中的大Key如何进行处理
我们可以将配置文件当中的这些参数设置为yes,也就是懒释放
Redis当中的大Key如何进行处理文章来源地址https://www.toymoban.com/news/detail-408853.html

到了这里,关于Redis当中的大Key如何进行处理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Redis性能瓶颈揭秘:如何优化大key问题?

    Redis大key问题指的是某个key对应的value值所占的内存空间比较大,导致Redis的性能下降、内存不足、数据不均衡以及主从同步延迟等问题。 到底多大的数据量才算是大key? 没有固定的判别标准,通常认为字符串类型的key对应的value值占用空间大于1M,或者集合类型的k元素数量超

    2023年04月17日
    浏览(41)
  • redis的Key的过期策略是如何实现的?

    Key的过期策略 一个redis中可能同时存在很多很多key,这些key可能有很大一部分都有过期时间,此时,redis服务器咋知道哪些key已经过期要被删除,哪些key还没有过期? 如果直接遍历所有的key,显然是行不通的,效率极低! Redis的Key有3种过期删除策略,具体如下: 原理 :在设

    2024年02月13日
    浏览(30)
  • redis集群的多key原子性操作如何实现?

    在单实例redis中,我们知道多key原子性操作可以用lua脚本或者multi命令来实现。 比如说有一个双删场景,要保证原子性同时删除 k1 和 k2 。 可以用lua双删 也可以用事务双删 但是在redis的集群中,key被hash到不同的slot,slot又被分配到多个不同redis实例。那么多key原子性操作如何

    2024年02月07日
    浏览(41)
  • 用给定的key对字符串进行sha256加密-postman预处理

    接口在请求时,需要将参数排序后进行sha256加密,获取sign,作为参数。 postman的预处理,找不到方法可以对字符串进行有key的sha256加密,所以用python写一个加密接口,在预处理中调用加密接口即可 1.python文件

    2024年02月16日
    浏览(59)
  • Redis如何找出大量以某一个前缀开头的key

    Redis如何找出大量以某一个前缀开头的key 使用keys命令 KEYS命令是一个非常耗费资源的命令,它需要在Redis中遍历整个键空间,因此应该尽量避免在生产环境中使用。如果需要查找的key非常多,可以考虑使用SCAN命令,或者使用其他更高效的方式来实现类似的功能。 SCAN命令 SCA

    2024年02月20日
    浏览(40)
  • memcached的大key存储与slab钙化问题踩坑

    线上启用memcached(以下简称mc)作为热点缓存组件已经多年,其稳定性和性能都经历住了考验,这里记录一下踩过的几个坑。 某年某月某日,观察mysql的读库CPU占比有些异常偏高,去check慢查询log,发现部分应有缓存的慢sql居然存在几秒执行一次情况,不符合缓存数小时的代码逻

    2024年02月11日
    浏览(35)
  • 两台电脑连结的同一个wifi网络,如何将两个电脑之间的大文件进行快速传输,有什么办法吗?

    问题描述:两台电脑连结的同一个wifi网络,如何将两个电脑之间的大文件进行快速传输,有什么办法吗? 问题解答: 有几种方法可以在两台电脑之间快速传输大文件: 使用局域网文件共享功能: 如果两台电脑连接到同一个WiFi网络并且位于同一个局域网中,您可以在其中一

    2024年04月12日
    浏览(146)
  • 在git使用时不小心commit了大文件,如何删除commit中的大文件记录

    问题背景:由于许多人在使用git命令的时候,习惯于使用 git add . 添加所有更改的命令,这个习惯会导致在进行git 进行push的时候,由于无意间提交commit缓存的大文件,阻止正常的push 从而很难解决,本文为了解决这问题,有以下小经验(文章广泛参考了其他帖子) 如果你也因

    2024年02月16日
    浏览(41)
  • 数据中台系统是一个重要的数字化转型方式之一,它基于现代的大数据处理技术,通过构建统一的数据仓库,将不同来源、格式的数据进行整合、清洗、融合,并提供给业务人员进行分析挖掘的数据集合

    作者:禅与计算机程序设计艺术 数据中台系统是一个重要的数字化转型方式之一,它基于现代的大数据处理技术,通过构建统一的数据仓库,将不同来源、格式的数据进行整合、清洗、融合,并提供给业务人员进行分析挖掘的数据集合。其目标就是为了实现数字化进程中的各

    2024年02月11日
    浏览(45)
  • Java当中List集合根据对象某个属性进行去重

    关于以下方法,直接可以在自己项目创建一个类,然后进行测试使用,去重方式有很多种,文本末尾也提供了每个方法的运行结果,供大家参考使用! 文章大量使用到了Java8当中的Lambda表达式,以及stream流相关基础知识。如果您用的不熟,没关系,可以直接复制下面的方案然

    2024年02月16日
    浏览(60)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包