SQL之优化篇:一文搞懂如何优化线上任务性能,增效降本!

这篇具有很好参考价值的文章主要介绍了SQL之优化篇:一文搞懂如何优化线上任务性能,增效降本!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

继上一篇文章:SQL优化之诊断篇:快速定位生产性能问题实践。本文将从优化运行时间和优化资源消耗这两个方面,介绍可以提升作业性能的常用方法。

1.优化运行时间

在优化运行时间这个维度上,我们重点关注时间上的加速,单位时间内可能会消耗更多的计算资源。总成本有可能上升,也可能降低。为了缩短作业运行时间,可以从作业并行度,数据倾斜等角度进行优化。

1.1 调整并行度

task 并行度不合理有很多时候是因为数据从上游 task 计算后,数据膨胀得很厉害。我们第一步应该做的是去检查自己的业务逻辑有没有问题,是否有数据膨胀。

并行度是衡量并行计算并行程度的一个指标,从执行计划上来看,比如 M1,用 1000个 instance 来执行,我们就说 M1 的并行度是 1000。需要注意的是,调整并行度不一定是调高,instance 数量过多会从两个方面影响执行速度:    

1.instance 越多,等待资源需要更长的时间,排队次数也更多。

2.每个 instance 初始化需要一定的时间,并行度越高,初始化占用的总时间就越多,有效的执行时间占比就越低。

下面列出了非人为干预情况下,影响单个task并行度的主要因素:

1.某些操作强制了必须 1 个 instance 来执行,例如:

a.做聚合的时候,没有group by,或者 group by 一个常量;
b.窗口函数的 over 里面指定 partition by 一个常量;
c.SQL 中指定 distribute by、cluster by 、order by一个常量;
d.mapjoin 的时候,需要把一个小表广播出去,目前会先被塞到一起然后再做广播;

2.读表的 task:instance 数量与源数据的大小有关系。

3.非读表的 task:instance 数量根据输入 task 的并行度,加 task 内部的 operator 来推算。

强制 1 个 instance 执行

针对这种情况,用户需要检查这些操作是否必要,能否去掉,尽量取消掉这些操作。

读表的 task

对于读表的 task,一般情况下,一个 instance 读取 256M(压缩后的大小)的数据。绝大多数情况下没有问题,这里列出一些常见出问题的情况:

1.数据压缩比很高:256M 解压出来后可能有好几十 G 数据,保持默认设置读 256M 数据不合理,需要调小单个 instance 读取的数据量。

2.Task 中执行了一些很 heavy 的操作,特别是存在 UDF(包含使用非结构化存储的时候用户自定义的Extractor),有可能读 256M 的执行时间也不能满足用户需求,需要调小单个 instance 读取的数据量。

3.读取 256M 数据太少,导致 instance 的执行时间太短,而由于输入数据很大(比如在对一年的数据做统计分析),反而导致了并行度过大,让 instance 大多数时间在排队等资源,需要调大单个 instance 读取的数据量。

可以通过调整split size来设置task的实例数


set xxx.sql.mapper.split.size=
 -- 设定一个map的最大数据输入量,单位M
 -- 默认256。区间[1,Integer.MAX_VALUE]
非读表的 task

主要有三种方式调整并行度:

1.调整 xxx.sql.mapper.split.size:非读表 task 的并行度会受到输入 task 的并行度影响,通过调整读表 task 的并行度间接调整非读表 task 的并行度。
2.通过 xxx.sql.reducer.instances 强制设置 reducer 并行度,但是会影响所有的相关 task。
3.通过 xxx.sql.joiner.instances 强制设置 joiner 并行度,但是会影响所有的相关 task。

1.2 优化执行计划

Map Join Hint

在对大表和一个或者多个小表执行join操作时,若因为统计信息缺失、UDF逻辑黑盒等原因导致优化器没有自动生成map join的,用户可以手动添加map join hint,使得原本的Sort-Merge Join变成Map Join,避免大表数据shuffle从而提升性能。

1.3 数据倾斜

在数据倾斜的情况下,通常情况下调整并行度是没有用的,并且没有万能的解决方案。一般会有下面几种倾斜类别:

1.Map端长尾优化2.Reduce端长尾优化3.Join长尾优化

注意,数据倾斜的情况非常多,并没有百分之百有效的解决方案。这里也只是提供一些优化思路,经验之谈,大多数思路都是需要用户去对代码甚至算法做一定的修改。

数据Shuffle导致的数据倾斜

数据倾斜大多数是由于数据的 reshuffle 引起的,因为按照某个 key 来做 shuffle,同一个 key 值的数据会强制集中在一个 instance 处理。

【如何判断是否由数据 Shuffle 导致的倾斜】Shuffle 对应于执行计划中的 streamline,如果发现数据倾斜的 task 是其他 task 的下游,并且上游的数据按照某个 key 来做shuffle,那么首先分析一下是不是因为 shuffle 导致的。Shuffle 导致的数据倾斜一般有几种情况:

1.Shuffle 用了区分度低(值域只包含少量的值)的 key。比如人口数据,按照“性别”来做分区,由于性别只有“男”和“女”两种,那么数据最终会集中到两个 instance 来处理,如果并行度不是 2,除了这两个 instance 之外,其他的 instance 都是空跑。

2.Key 的区分度虽然不低,但是分布不均匀。比如以人的姓作为 shuffle key,虽然姓的值域理论上很多,但是某些大姓占据了大部分,那么处理这几个大姓的 instance 就会集中了比其他 instance 多得多的数据,耗时也会长很多。

3.数据中存在一些特殊值,比如使用 null、0 或者 ‘-’ 这类的特殊值来表示一些异常情况。这类特殊值可能在数据中占据非常大的比例,也会导致数据倾斜。

某些情况下,用户并没有意识到自己的数据里面存在一些特殊值或者热点值。此时可以通过一些简单的统计来分析。比如下面的 query:

select * from t join t2 on t.a = t2.a;

首先可以通过 explain,看出是按照哪列做 shuffle 的 key

... In Task M1:     Data source: test_proj.t     TS: test_proj.t         FIL: ISNOTNULL(a)             RS: order: +                 ...                 keys:                       a      <====  左表的key                values:      ...  In Task M3:     Data source: test_proj.t2     TS: test_proj.t2         FIL: ISNOTNULL(a)             RS: order: +                 ...                 keys:                       a   <====  右表的key                 values:                 ...

通过一些简单的 aggregation,可以看到哪些 key 属于热点数据,如:

select a, count(*) from t group by a order by count(*) desc limit 100;

可以观察t表a列中,哪个数据出现频次比较高,比其他数据高很多。

【如何优化数据 Shuffle 导致的倾斜】这类数据倾斜,调整并行度是没有用的。一般可以从几个方面去考虑优化:

1.去掉 shuffle,没有了 shuffle,问题自然就消失了。

a).JOIN导致的shuffle:可以考虑使用 mapjoin 来取代 mergejoin,mapjoin 下大表是不需要做 reshuffle的,这样不仅仅消除了数据倾斜,还省了一次 shuffle 的时间。

b).GROUP BY, DISTRIBUTE BY,CLUSTERED BY, 窗口函数的PARTITION BY 等语法结构导致的shuffle:可以去看看这些操作是否真的必要,能不能去掉,这里并没有统一的解法。

2.换别的 shuffle key。在业务逻辑的允许下,更换 shuffle key 或者增加 shuffle key 的维度,能解决某些问题。比如人口数据,能够按照“姓名”来做 key,就不要用“姓“来做 key。

3.将热点数据特殊处理。比如先将出现数据倾斜的 key 和其他数据分开来,分别处理,最后再 union 起来。这个方案有时候可以简化,比如 join 的时候,特殊值有可能是已知 join 不上的,那么可以将特殊值做一些处理,把特殊值随机化。

非Shuffle导致的数据倾斜

有些时候,数据倾斜不一定是 shuffle 导致的,也可能是别的问题。这里列举一些常见情况:

1.数表数据不均匀。读表 instance 读取的数据量一般都差不多,但是也不排除会出现长尾的情况:

a).数据压缩率不同导致的数据不均匀。同样是压缩前的 256M 数据,有可能某些 instance 解压后是几百M,某些 instance 解压后好几 G。

b).数据文件数导致的不均匀。读取数据的效率并非和数据量成正比,打开文件,建立数据通道,关闭文件这些操作都是有消耗的。如果读取的文件数量过多,那么这些额外消耗照成的时间消耗也会上升。为了防止由于这个问题导致的数据倾斜,ODPS 会控制每个 instance 读取的小文件数,默认是 64M。

c).文件大小有区别,导致读同一数目文件,读入的数据量也会有较大变化。            

2.选择率(Selectivity)不同导致的数据不均匀。比如有些 instance 经过 filter,只剩下少量的数据,某些 instance filter 过后,还剩下大量的数据,从而导致数据倾斜。

3.计算复杂度不均匀。有些操作,比如UDF,或者case when,对于某些数据值的计算量会比其他数据值多很多。这种情况下不同 instance 的数据量虽然差别也不大,但是可能计算量差很多,耗时也会差很多。

4.数据膨胀不均匀。有些操作会导致数据膨胀,比如 join,grouping sets aggregate,UDTF。这类操作可能在不同的 instance 下由于数据内容不一致,导致了膨胀率差别很大,最终也会导致数据倾斜。

5.继承的数据不均匀。有些情况下,数据倾斜并不是 task 本身产生的,而是从上游 task 带下来的。比如数据膨胀的 task 自身没有让膨胀率大的 instance 执行时间过长而受到关注,下游的 task 反而出现了异常。

【优化思路】这些数据倾斜,通常能通过调整并行度来进行一定的缓解。当然还有其他的:

1.如果是小文件太多,导致了读表 instance 的数据倾斜,那么可以考虑先对输入数据表做小文件合并:

alter table t merge smallfiles

2.Map 端每个 Instance 读入的数据量不均匀时,可以调整 ODPS 最多能读取的小文件数,进行小文件的合并使得读入数据量均匀。这个参数一般会和odps.sql.mapper.split.size 结合使用。

set xxx.sql.mapper.merge.limit.size= -- 设定控制文件被合并的最大阈值,单位M, -- 默认64M。区间[0,Integer.MAX_VALUE]set odps.sql.mapper.merge.limit.size= -- 设定控制文件被合并的最大阈值,单位M, -- 默认64M。区间[0,Integer.MAX_VALUE]

1.选择率不同导致的长尾或者计算复杂度不同导致的长尾,正常情况下不会太突出,如果出现了,可以先看看自己的程序是不是有 bug,比如 UDF 是不是在某些情况下有死循环。

2.不仅仅是数据倾斜,数据膨胀过大本身就有问题。

3.为防止上游的数据倾斜对下游产生影响,一个可能的做法是,通过使用distribute by rand() 来强制上游数据做reshuffle。

SQL之优化篇:一文搞懂如何优化线上任务性能,增效降本!,数仓建模/数据架构/数据治理,Hive/MR原理剖析/优化实战,java,开发语言,hive,spark,数据库

2.优化消耗资源

为了节省资源消耗,可以通过使用SQL新语法、新功能,合理设置资源参数等方式来进行优化。

2.1 MR典型场景用SQL实现

目前线上很多 MapReduce 程序功能都可以使用 SQL 新功能实现,MR 作业修改为 SQL 后表达更为直观,升级维护更为方便,SQL 执行计划经过多层优化后,基于代码生成器生成,在深度优化执行引擎 NATIVE 执行,性能和稳定性保障性更高。

1.使用 SQL-聚合函数

适用场景:对数据做汇总和合并操作的 MR 程序。

例如,安全需求统计每个电话设备呼入呼出号码及次数并且要求每个设备保存一条记录;MR 程序通过 MAP 读取到数据后按设备分组,REDUCE 对同设备汇总各类信息打标签统计合并输出。SQL 聚合函数可以表示为:

select k, WM_CONCAT(';',concat(v,":",c)) 
from ( select k, v, count(v) c from t group by k,v) t2
group by k;

类似有 COLLECT_LIST、COLLECT_SET等函数可以表示在给定 GROUP 内将 COL 指定的表达式聚合为数组。

2.用 SQL-窗口/分析函数

适用场景:聚合表达不了的作业。例如组内多条对比分析的作业可以考虑使用开窗函数,限制条件是分组后组内数据量不超过1亿。

例如,通讯软件如微信如果有需求要对每一条对话消息内容分析(打标签、回复类型判断等),MR 程序可以通过在 REDUCE 中对同组数据按时间排序,然后获取前后 1 条或 n 条记录与当前记录在一起分析;类似需求也可以用 SQL-开窗函数提供的 LEAD、LAG 等函数获取前后偏移的数据进行对比分析。

2.2 合理设置资源参数

尽量不要通过设置参数的方式进行优化,首先要看能否从业务上或者算法上减少数据和其他方式进行优化。

ODPS 处理一个任务主要分为三个阶段:Map、Reduce、Join。如果处理的数据量比较大,导致各个阶段的每个 instance 处理的时间比较长,在没有数据倾斜的情况下,可以通过设置下面的资源参数适当增加资源来加快处理速度。

2.2.1 Map端设置

set XXX.sql.mapper.cpu=10

作用:设置处理Map Task每个Instance的CPU数目,默认为100,在[50,800]之间调整。

场景:某些任务如果特别耗计算资源的话,可以适当调整cpu数目。对于大多数sql任务来说,一般不需要调整cpu个数的。

set XXX.sql.mapper.memory=1024

作用:设定Map Task每个Instance的Memory大小,单位M,默认1024M,在[256,12288]之间调整。

场景:当Map阶段的Instance有Writer Dumps时,可以适当的增加内存大小,减少Dumps所花的时间。

set XXX.sql.mapper.merge.limit.size=64

作用:设定控制文件被合并的最大阈值,单位M,默认64M,在[0,Integer.MAX_VALUE]之间调整。

场景:当Map端每个Instance读入的数据量不均匀时,可以通过设置这个变量值进行小文件的合并,使得每个Instance的读入文件均匀。一般会和

XXX.sql.mapper.split.size

 这个参数结合使用。

set XXX.sql.mapper.split.size=256

作用:设定一个Map的最大数据输入量,可以通过设置这个变量达到对Map端输入的控制,单位M,默认256M,在[1,Integer.MAX_VALUE]之间调整。

场景:当每个Map Instance处理的数据量比较大,时间比较长,并且没有发生长尾时,可以适当调小这个参数。如果有发生长尾,则结合

XXX.sql.mapper.merge.limit.size

这个参数设置每个Map的输入数量。

2.2.2 Join设置

set XXX.sql.joiner.instances=-1

作用: 设定Join Task的Instance数量,默认为-1,在[0,2000]之间调整。

场景:每个Join Instance处理的数据量比较大,耗时较长,没有发生长尾,可以考虑增大使用这个参数。

set XXX.sql.joiner.cpu=100

作用: 设定Join Task每个Instance的CPU数目,默认为100,在[50,800]之间调整。

场景:某些任务如果特别耗计算资源的话,可以适当调整CPU数目。对于大多数SQL任务来说,一般不需要调整CPU。

set XXX.sql.joiner.memory=1024

作用:设定Join Task每个Instance的Memory大小,单位为M,默认为1024M,在[256,12288]之间调整。

场景:当Join阶段的Instance有Writer Dumps时,可以适当的增加内存大小,减少Dumps所花的时间。

2.2.3 Reduce端设置

set XXX.sql.reducer.instances=-1sql

作用: 设定Reduce Task的Instance数量,手动设置区间在[1,99999]之间调整。

场景:每个Join Instance处理的数据量比较大,耗时较长,没有发生长尾,可以考虑增大使用这个参数。

set XXX.sql.reducer.cpu=100

作用:设定处理Reduce Task每个Instance的Cpu数目,默认为100,在[50,800]之间调整。

场景:某些任务如果特别耗计算资源的话,可以适当调整Cpu数目。对于大多数Sql任务来说,一般不需要调整Cpu。

set XXX.sql.reducer.memory=1024

作用:设定Reduce Task每个Instance的Memory大小,单位M,默认1024M,在[256,12288]之间调整。

场景:当Reduce阶段的Instance有Writer Dumps时,可以适当的增加内存的大小,减少Dumps所花的时间。文章来源地址https://www.toymoban.com/news/detail-686231.html

到了这里,关于SQL之优化篇:一文搞懂如何优化线上任务性能,增效降本!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【MDX】一文带你搞懂SQL Server Analysis Services 的安装和使用

    目录 Step 1: Install developer and management tools 安装 new stand-alone SQL Server installation or add the feature to an existing installation 安装 SQL Server Management Studio 安装 SSDT 安装 Visual Studio Step 2: Install databases Step 3: Install projects Step 4: 创建项目 Step 5: 定义数据源 Step 6: 部署Analysis Services项目 Step 7: F

    2023年04月08日
    浏览(53)
  • 一文详解:传统企业如何把进销存管理流程搬到线上?

    进销存管理 是企业管理的核心流程之一,它有助于提高效率、降低成本、增加盈利,同时确保客户满意度,这对于企业的 长期成功和竞争力 至关重要。但在信息化转型的浪潮下,很多企业的传统进销存流程却遇到不少问题。 如果你也在考虑把进销存流程搬到线上,那么请花

    2024年02月05日
    浏览(40)
  • 一文让你搞懂javascript如何实现继承

    一、本文想给你聊的东西包含一下几个方面:(仅限于es6之前的语法哈,因为es6里面class这用上了。。) 1.原型是啥?原型链是啥? 2.继承的通用概念。 3.Javascript实现继承的方式有哪些?   二、原型是啥?原型链是啥? 1.原型是函数本身的prototype属性。 首先js和java不

    2024年02月04日
    浏览(53)
  • 一本书让你彻底搞懂安卓系统性能优化(文末送书5本)

    🤵‍♂️ 个人主页:@艾派森的个人主页 ✍🏻作者简介:Python学习者 🐋 希望大家多多支持,我们一起进步!😄 如果文章对你有帮助的话, 欢迎评论 💬点赞👍🏻 收藏 📂加关注+ 目录 前言 作者简介 内容简介  本书特色 读者对象 直播预告 文末福利         为什么

    2024年02月08日
    浏览(48)
  • 一文彻底搞懂Kafka如何保证消息不丢失

    Producer:生产者,发送消息的一方。生产者负责创建消息,然后将其发送到 Kafka。 Consumer:消费者,接受消息的一方。消费者连接到 Kafka 上并接收消息,进而进行相应的业务逻辑处理。 Consumer Group:将多个消费者组成一个消费者组,一个消费者组可以包含一个或多个消费者。

    2024年04月22日
    浏览(39)
  • 一文搞懂如何在VS中使用OpenCV

    下载OpenCV并在VS2019上进行配置 1.进入OpenCV官网选择想要的版本进行下载 ​ https://opencv.org/releases/ ​ 点击对应的应用场景即可开始下载 2.下载完成后运行exe ​ 选择下载路径,然后等待下载即可 3.配置环境变量 ​ 打开下载好的OpenCV文件所在位置,将F:developopencvopencvbuildx6

    2024年02月04日
    浏览(39)
  • flink任务性能优化

    1、使用异步算子,异步执行操作 2、将下游数据需要的数据以参数的形式向下传递 3、当服务器资源有限的情况下,慎用RocksDBStateBackend RocksDBStateBackend performance will be poor because of the current Flink memory configuration! RocksDB will flush memtable constantly, causing high IO and CPU. Typically the easiest

    2024年02月14日
    浏览(61)
  • 一文速学-selenium高阶性能优化技巧

    最近写的挺多自动化办公的selenium程序没有做优化,执行效率不高,启动浏览器又慢但是又可能出现其他不可控的因素,总结来说虽然放心运行但是又没那么好用,项目是写完了最后还是需要优化结尾的。selenium程序优化空间还是非常大的,根据自己项目的需求来进一步精简,

    2024年01月16日
    浏览(36)
  • Selenium性能优化:一文带你快速上手!

    在自动化测试领域(做爬虫、自动化办公也不是不行😁😁), Selenium 是一个极为强大且广泛使用的工具。 学会使用工具是开始,学会优化该工具的使用才属于是真正的学会使用这个工具。面对日益复杂的网页结构和动态内容,仅仅掌握 Selenium 的基础操作已经过时啦!!!

    2024年02月04日
    浏览(37)
  • 一文搞懂如何在 React 中使用 防抖(Debounce)和 节流(Throttle)

    在前端的日常开发中,经常会使用到两个函数防抖(Debounce)和节流(Throttle),防抖函数可以有效控制在一段时间内只执行最后一次请求,例如搜索框输入时,只在输入完成后才进行请求接口。而节流函数则是每隔一段时间就执行一次请求。 在 React 应用开发时,不同于普通

    2024年02月09日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包