HBase性能调优(二)

这篇具有很好参考价值的文章主要介绍了HBase性能调优(二)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

HBase性能调优(二)

感谢点赞和关注 ,每天进步一点点!加油!


版权声明:本文为CSDN博主「开着拖拉机回家」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

Hbase性能调优(二)_开着拖拉机回家的博客-CSDN博客

Hbase性能调优(一)_开着拖拉机回家的博客-CSDN博客

目录

一、通用优化

二、Linux优化

三、HBase优化

1、修改zookeeper配置: zookeeper.session.timeout

2、修改HBase配置:hbase.regionserver.handler.count

3、修改HBase配置: hbase.hregion.max.filesize

4、修改HBase配置: hbase.regionserver.global.memstore.upperLimit

5、修改HBase配置: hfile.block.cache.size

6、修改HBase配置: hbase.hstore.blockingStoreFiles

7、修改HBase配置: hbase.hregion.memstore.block.multiplier

8、修改HBase配置: hbase.hregion.memstore.mslab.enabled

9、优化DataNode允许的最大文件打开数

10、优化延迟高的数据操作的等待时间

11、优化数据的写入效率(map输出是否压缩)

12、优化DataNode存储

13、优化hbase客户端缓存


一、通用优化


1、NameNode的元数据备份使用SSD、定时备份 NameNode 上的元数据,每小时或者每天备份,如果数据极其重要,可以5~10分钟备份一次。备份可以通过定时任务复制元数据目录即可。

2、为NameNode指定多个元数据目录,使用dfs.name.dir或者dfs.namenode.name.dir指定。一个指定本地磁盘,一个指定网络磁盘。这样可以提供元数据的冗余和健壮性,以免发生故障。

3、设置dfs.namenode.name.dir.restore为true,允许尝试恢复之前失败的dfs.namenode.name.dir目录,在创建checkpoint时做此尝试,如果设置了多个磁盘,建议允许。

5、NameNode节点必须配置为RAID1(镜像盘)结构。

6、保持NameNode日志目录有足够的空间,这些日志有助于帮助你发现问题。

7、因为Hadoop是IO密集型框架,所以尽量提升存储的速度和吞吐量(类似位宽)。


二、Linux优化


1、开启文件系统的预读缓存可以提高读取速度

sudo blockdev --setra 32768 /dev/sda
(尖叫提示:ra是readahead的缩写)

2、关闭进程睡眠池

# 临时关闭
sudo sysctl -w vm.swappiness=0
    
# 永久关闭
cat /etc/sysctl.conf  
vm.swappiness = 0

查看是否生效

HBase性能调优(二)

3、调整ulimit上限,默认值为比较小的数字

ulimit -n 查看允许最大进程数
ulimit -u 查看允许打开最大文件数

修改:
sudo vi /etc/security/limits.conf 修改打开文件数限制
末尾添加:
*                soft    nofile          1024000
*                hard    nofile          1024000
Hive             -       nofile          1024000
hive             -       nproc           1024000

sudo vi /etc/security/limits.d/20-nproc.conf 修改用户打开进程数限制
修改为:
#*          soft    nproc     4096
#root       soft    nproc     unlimited
*          soft    nproc     40960
root       soft    nproc     unlimited

三、HBase优化


1、修改zookeeper配置: zookeeper.session.timeout
zookeeper.session.timeout=180000ms(默认值3分钟)

说明:RegionServer与Zookeeper间的连接超时时间。当超时时间到后,RegionServer会被Zookeeper从RS集群清单中移除,Hmaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的RegionServer接管。

调优方法

这个timeout决定了RegionServer是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。

但是,对于一些Online应用,RegionServer从宕机到恢复时间本身就很短的(比如:网络闪断,crash等故障),如果调低timeout时间,反而得不偿失。因为当RegionServer被正式从RS集群中移除时,HMaster就开始做balance了(让其他RS根据故障机器记录的WAL日志进行恢复)。当故障的RS在人工介入恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给RS带来更多负担。特别是那些固定分配Regions的场景。

HBase性能调优(二)

2、修改HBase配置:hbase.regionserver.handler.count
hbase.regionserver.handler.count=10(默认值)
说明:RegionServer的请求处理IO线程数

调优方法:

这个调优参数与内存息息相关。

较少的IO线程,适用于处理单次请求内存消耗较高的BIG PUT场景(大容量单次PUT或者设置较大cache的scan,均属于BIG put)或RegionServer的内存比较紧张的场景。

较多的IO线程,适用于单次请求内存消耗低,TPS要求非常高的场景。设置该值的时候,以监控内存为主要参考。

注意:如果RegionServer的region数量很少,大量的请求都落在一个Region上,因快速充满memstore触发flush导致的读写锁会影响全局TPS,不是IO线程数越高越好。

HBase性能调优(二)

3、修改HBase配置: hbase.hregion.max.filesize
hbase.hregion.max.filesize=10G(默认值)
说明:在当前RegionServer上单个Region的最大存储空间,单个Region超过该值时,这个Region会被自动split成更小的region.

说明: 默认值10737418240(10GB),如果需要运行HBase的MR任务,可以减小此值,因为一个region对应一个map任务,如果单个region过大,会导致map任务执行时间过长。该值的意思就是,如果HFile的大小达到这个数值,则这个region会被切分为两个Hfile。

调优方法:

小region对split和 compaction 友好,因为split或compact小region里的storefile速度很快,内存占用低。缺点是split和compact会很频繁。尤其是当小region特别多的时候会不断的split,compaction。会导致集群响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至会引发一些Hbase的bug。一般512M以下的都算为小region.

大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile。当对大region做Compaction时,对内存也是一个挑战。

当然,大Region也有用武之地。如果你的应用场景中,某个时间点的访问量较低,那么在此时做compact和split,既可以顺利完成split和compaction,又能保证绝大多数时间平稳的读写性能。

既然split和compaction如此影响性能,如何减小这种影响?

compaction是无法避免的,split倒可以从手动变为自动。

只要通过将这个参数值调大到某个很难达到的值,比如100G,就可以间接禁用自动split(RegionServer不会对未到达100G的region做split)。再配合RegionSplitter这个工具,在需要split时,手动split。

手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。平稳的读写性能。

内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的IO wait增高,过小则因store file过多影响读性能。

Ambari-HDP HBase 默认 StoreFile 最大为 10G.

HBase性能调优(二)

过多的 小Region 会频繁的触发minor Compaction 。

HBase性能调优(二)

4、修改HBase配置: hbase.regionserver.global.memstore.upperLimit
hbase.regionserver.global.memstore.upperLimit/lowerLimit
默认值:0.4


upperLimit说明:hbase.hregion.memstore.flush.size这个参数的作用是单个Region内所有memstore大小总和,超过该指定值时,会flush该region的所有memstore。RegionServerd的flush是通过将请求添加一个队列,模拟生产消费模式来异步处理的。那这里就有一个问题,当队列来不及消费,产生大量积压请求时,可能会导致内存陡增,最坏的情况是触发OOM(程序申请内存过大,虚拟机无法满足我们,然后自杀)。

这个参数的作用是防止内存占用过大,当ReionServer内所有region的memstore所占用内存总和达到heap的40%时,Hbase会强制block所有的更新并flush这些region以释放所有memstore占用的内存。

lowerLimit说明:lowelimit在所有Region的memstore所占用内存达到Heap的40%时,不flush所有的memstore。它会找一个memstore内存占用最大的region,做个别flush,此时写更新还是会被block。lowerLimit算是一个在所有region强制flush导致性能降低前的补救措施。在日志中,表现为“** Flush thread woke up with memory above low water.”

调优方法:

这是一个Heap内存保护参数,默认值已经能使用大多数场景。

参数调整会影响读写,如果写的压力大导致经常超过这个阈值,则调小读缓存hfile.block.cache.size增大该阀值,或者Heap余量较多时,不修改读缓存大小。
如果在高压情况下,也没超过这个阀值,那么建议你适当调小这个阀值再做压测,确保触发次数不要太多,然后还有较多Heap余量的时候,调大hfile.block.cache.size提高读性能。
还有一种可能性是hbase.hregion.memstore.flush.size保持不变,但RS维护了过多的region,要知道 region数量直接影响占用内存的大小。

5、修改HBase配置: hfile.block.cache.size
<property>
  <name>hfile.block.cache.size</name>
  <value>0.4</value>
</property>

说明:stofile的读缓存占用Heap的大小百分比。该值直接影响数据读的性能。

调优方法:

当然是越大越好,如果写比读少很多,开到0.4-0.5也没问题,如果读写均衡,设置为0.3左右。如果写比读多,果断使用默认就行。设置这个值的时候,同时要参考“hbase.regionserver.global.memstore.upperLimit”,该值是memstore占heap的最大百分比,两个参数一个影响读,一个影响写。如果两个值加起来超过0.8-0.9时,会有OOM风险。

Hbase上RegionServer的内存分为两个部分,一部分作为Memstore,主要用来写;另外一部分作为BlockCache,主要用于读。

写请求会先写入Memstore,RegionServer会给每个Region提供一个Memstore,当Memstore满64M,会启动flush刷新到磁盘。当Memstore的总大小超过限制时(heapsize * hbase.regionserver.global.memstore.upperLimit * 0.9),会强行启动flush进程,从最大的Memstore开始flush直到低于限制。

读请求先到Memstore中查数据,查不到就到BlockCache中查,再查不到就会到磁盘上读,并把读的结果方法BlockCache。由于BlockCache采用的是LRU策略(内存管理的一种页面置换算法,对于在内存中但又不用的数据块(内存块)),因此BlockCache达到上限(heapsize * hfile.block.cache.size * 0.85)后,会启动淘汰机制,淘汰掉最老的一批数据。

一个RegionServer上有一个BlocakCache和N个Memstore,它们的大小之和不能大于等于heapsize * 0.8(heapsize可以在hbase-env.sh下查看),否则HBase不能启动。默认BlockCache为0.2,而Memstore为0.4。对于注重读响应时间的系统,可以将 BlockCache设大些,比如设置BlockCache=0.4,Memstore=0.39,以加大缓存的命中率。

6、修改HBase配置: hbase.hstore.blockingStoreFiles
hbase.hstore.blockingStoreFiles    = 10 (默认值)
hbase.hstore.blockingStoreFiles is now 10.

说明:在flush时,当一个region中的Store(Coulmn Family)内有超过10个storefile时,则block所有的写请求进行compaction,以减少storefile数量。
调优方法:block写请求会严重影响当前regionServer的响应时间,但过多的storefile也会影响读性能。从实际应用来看,为了获取较平滑的响应时间,可将值设为无限大。如果能容忍响应时间出现较大的波峰波谷,那么默认或根据自身场景调整即可。

HBase性能调优(二)

ColumnFamily:d 合并完成

HBase性能调优(二)

7、修改HBase配置: hbase.hregion.memstore.block.multiplier
hbase.hregion.memstore.block.multiplier   =  4 (默认值)

说明:当一个region里的memstore占用内存大小超过hbase.hregion.memstore.flush.size 四倍的大小时,写操作阻塞,进行flush 并释放内存。虽然我们设置了region所占用的memstores总内存大小,比如128M,但想象一下,在最后127.9M的时候,put了一个400M的数据,此时memstore的大小会瞬间暴涨到超过预期的hbase.hregion.memstore.flush.size的几倍。这个参数的作用的当memstore的大小增至超过hbase.hregion.memstore.flush.size 4倍时,阻塞写请求,遏制风险进一步扩大。

调优方法:

这个参数的默认值还是比较靠谱的。如果你预估你的正常应用场景(不包括异常)不会出现突发写或写的量可控,那么保持默认值即可。如果正常情况下,你的写请求量就会经常暴长到正常的几倍,那么你应该调大这个倍数并调整其他参数值,比如hfile.block.cache.size和hbase.regionserver.global.memstore.upperLimit/lowerLimit,(但是这两个值的和最好不要超过0.8-0.9)以预留更多内存,防止HBase server OOM。

8、修改HBase配置: hbase.hregion.memstore.mslab.enabled
hbase.hregion.memstore.mslab.enabled = true (默认值)

说明:减少因内存碎片导致的Full GC,提供整体性能。

调优方法:

Arena Allocation,是一种GC优化技术,它可以有效地减少因内存碎片导致的Full GC,从而提高系统的整体性能。本文介绍Arena Allocation的原理及其在Hbase中的应用-MSLAB。

开启MSLAB:

// 开启MSALB
hbase.hregion.memstore.mslab.enabled=true // 开启MSALB
    
// 内存分配单元 chunk的大小,越大内存连续性越好,但内存平均利用率会降低
hbase.hregion.memstore.mslab.chunksize=2m

// 通过MSLAB分配的对象不能超过256K,否则直接在Heap上分
hbase.hregion.memstore.mslab.max.allocation=256K
9、优化DataNode允许的最大文件打开数

属性:dfs.datanode.max.transfer.threads

文件:hdfs-site.xml

解释:HBase一般都会同一时间操作大量的文件,根据集群的数量和规模以及数据动作,设置为4096或者更高。默认值:4096

<-- DataNode 进行文件传输时的最大线程数 -->
<property>
        <name>dfs.datanode.max.transfer.threads</name>
        <value>16384</value>
</property>

Ambari-web 默认值:

HBase性能调优(二)

10、优化延迟高的数据操作的等待时间

属性:dfs.image.transfer.timeout

文件:hdfs-site.xml

解释:如果对于某一次数据操作来讲,延迟非常高,socket需要等待更长的时间,建议把该值设置为更大的值(默认60000毫秒),以确保socket不会被timeout掉。

11、优化数据的写入效率(map输出是否压缩)

属性:

mapreduce.map.output.compress
mapreduce.map.output.compress.codec

文件:mapred-site.xml

解释:开启这两个数据可以大大提高文件的写入效率,减少写入时间。第一个属性值修改为true,第二个属性值修改为:org.apache.hadoop.io.compress.GzipCodec

map输出是否进行压缩,如果压缩就会多耗cpu,但是减少传输时间,如果不压缩,就需要较多的传输带宽。配合 mapreduce.map.output.compress.codec使用,默认是 org.apache.hadoop.io.compress.DefaultCodec,可以根据需要设定数据压缩方式。

12、优化DataNode存储

属性:dfs.datanode.failed.volumes.tolerated

文件:hdfs-site.xml

解释:默认为0,意思是当DataNode中有一个磁盘出现故障,则会认为该DataNode shutdown了。如果修改为1,则一个磁盘出现故障时,数据会被复制到其他正常的DataNode上,当前的DataNode继续工作。

<-- DataNode 决定停止数据节点提供服务允许卷的出错次数,0 则表示任务卷出错都要停止数据节点 -->
<property>
        <name>dfs.datanode.failed.volumes.tolerated</name>
        <value>0</value>
        <final>true</final>
</property>
13、优化hbase客户端缓存

属性:hbase.client.write.buffer

文件:hbase-site.xml

解释: 默认值2097152bytes(2M) , 用于指定HBase客户端缓存,增大该值可以减少RPC调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少RPC次数的目的。


参考:https://blog.csdn.net/yueyedeai/article/details/14648111

链接:Hbase性能调优(一)_开着拖拉机回家的博客-CSDN博客文章来源地址https://www.toymoban.com/news/detail-504098.html

到了这里,关于HBase性能调优(二)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 用auto.js写了一个抖音点赞、关注的脚本

    最近一直在找工作,有天就遇到一个要求使用auto.js写一些自动化控件的公司(我严重怀疑它其实就想白嫖。。。),于是就有了这个小demo... 因为没用过抖音,也不懂auto.js,所以看了一些教学视频,所以写成这个样子了。。。(有点烂,就单纯记录一下自己的学习过程,au

    2024年02月13日
    浏览(47)
  • C语言实现万年历(附代码) 小白完成的第一个C语言程序,希望大家多多关注,点赞

    C语言实现万年历 前言:本文章向大家介绍如何使用C语言代码实现万年历使用实例,讲解编写万年历的方法,教你轻松学会写出万年历。这个小程序算是我自己写的第一个比较完整的小程序,算是对大一上学期学习的C语言程序设计基础的一个总结 知识强调 1.由于教皇格里戈

    2024年02月11日
    浏览(37)
  • CDH 6.x版本 HBase基础调优参数

    参数 默认值 调优值 参数解释 hbase.regionserver.handler.count 30 120 指定了每个RegionServer处理请求的最大线程数 hbase.regionserver.metahandler.count 30 120 指定了在RegionServer中处理Meta表的请求数量 hbase.client.retries.number 10 15 HBase客户端重试操作的最大次数 hbase.hstore.blockingStoreFiles 16 1500 用于控

    2024年02月19日
    浏览(38)
  • Spark(30):Spark性能调优之常规性能调优

    目录 0. 相关文章链接 1. 最优资源配置 2. RDD优化 2.1. RDD复用 2.2. RDD持久化 2.3. RDD尽可能早的 filter 操作 3. 并行度调节 4. 广播大变量 5. Kryo序列化 6. 调节本地化等待时长  Spark文章汇总          Spark 性能调优的第一步,就是为任务分配更多的资源,在一定范围内,增

    2024年02月16日
    浏览(60)
  • ES 性能调优,这可能是全网最详细的 Elasticsearch 性能调优指南

    性能调优是一件大而细的活儿。技术开发没有银弹,也就是本质上是没有所谓可应对任何场景的通用\\\"最优配置\\\"的。如果有,那么出厂何必不直接给出呢?所以理解每一项优化配置的含义很重。在当前情况下为最优配置,但是换一种场景就未必了。 废话不多说,直接上干货!

    2024年02月03日
    浏览(56)
  • Go性能调优及相关工具使用(四)——性能调优工具pprof的使用

    本堂课的知识要点有哪些? 1、性能发现工具pprof 2、性能调优案例 1、性能调优简介 性能调优原则: 要依靠数据不是猜测 要 定位最大瓶颈 而不是细枝末节 不要过早优化 不要过度优化 2、性能发现工具pprof 说明: 1、希望知道应用在什么地方耗费了多少CPU、Memory 2、pprof是用于

    2024年02月08日
    浏览(44)
  • openGauss学习笔记-271 openGauss性能调优-TPCC性能调优测试指导-测试MOT-TPCC性能

    本章节主要介绍openGauss数据库内核基于鲲鹏服务器和openEuler操作系统,为了达到最佳TPMC性能所依赖的关键系统级调优。 271.1 TPC-C简介 TPC-C基准是衡量联机事务处理(OLTP)系统性能的行业标准基准。它基于一个复杂的数据库和许多不同的事务类型。这些事务类型在此基准上执

    2024年04月26日
    浏览(43)
  • 前端面试的性能优化部分(6)每天10个小知识点

    首次内容渲染(First Contentful Paint,FCP)和首次有意义渲染(First Meaningful Paint,FMP)是衡量网页加载性能的指标,它们都关注页面加载过程中的用户体验。以下是我对这两个指标的理解: 首次内容渲染(FCP): 首次内容渲染是指从页面加载开始到浏览器首次绘制页面上的任何

    2024年02月13日
    浏览(48)
  • 前端面试的性能优化部分(12)每天10个小知识点

    👍 点赞,你的认可是我创作的动力! ⭐️ 收藏,你的青睐是我努力的方向! ✏️ 评论,你的意见是我进步的财富! HTTP缓存头是在HTTP响应中设置的指令,用于控制浏览器和代理服务器在客户端和服务器之间缓存内容的行为。以下是我对HTTP缓存头(如Cache-Control和ETag)的了

    2024年02月12日
    浏览(85)
  • 前端面试的性能优化部分(10)每天10个小知识点

    内联脚本和内联样式是将JavaScript代码和CSS样式直接嵌入到HTML页面中的做法。虽然这样做可以减少外部请求,但也可能对性能和可维护性产生影响。以下是处理内联脚本和内联样式以及它们对性能的影响的一些方法和考虑事项: 内联脚本的处理: 减少体积: 内联脚本会增加

    2024年02月12日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包