分享好友 最新动态首页 最新动态分类 切换频道
Blink/Flink作业 性能优化配置及原理
2024-12-27 04:40

本文通过代码和一些配置信息来优化blink/flink作业的性能。
共分为几部分
1.group aggregate优化
开启minibatch,开启localglobal,开启partialfinal,count distinct改写为agg with filter(count distinct优化
2.topN优化
使用UpdateFastRank算法:order by sum(正数) desc 时,要加上正数的过滤条件;topN输出不带rownum,输出时再排序一次;增大topN的cache大小;partitionby字段要有时间
3.高效内置函数
使用内置函数;使用单字符分隔符;multi_keyvalue代替keyvalue;用 LIKE 'xxx%'代替startwith,endwith等等;正则表达式慎用
4.网络传输的优化
使用 Dynamic-Rebalance 替代 Rebalance;使用 Rescale 替代 Rebalance
5.使用gemini

Bl<i></i>ink/Fl<i></i>ink作业 性能优化配置及原理

这部分内容是通过一篇ata文章和blink/flink官方文档的内容一起进行整理的,写的很好,整理一下就是上面的这个提纲,如果读过下面的原文,之后再进行查阅的时候看一下提纲就知道如何操作了。‘

1.开启minibatch

 

2.开启localglobal(常规agg优化

LocalGlobal优化即将原先的 Aggregate 分成Local+Global 两阶段聚合,也就是在 MapReduce 模型中熟知的 Combine+Reduce 处理模式。第一阶段在上游节点本地攒一批数据进行聚合(localAgg,并输出这次微批的增量值(Accumulator,第二阶段再将收到的 Accumulator merge起来,得到最终的结果(globalAgg)。

:开启LocalGlobal需要 UDAF 实现 merge 方法。

开启方式
在 blink-2.x 版本开始,LocalGlobal 是默认开启的,参数是: ,但是需要 microbatch/minibatch 开启的前提下才能生效。

如何判断是否生效
观察最终生成的拓扑图的节点名字中是否包含 “GlobalGroupAggregate” 或 “LocalGroupAggregate”

3.partialfinal(count distinct 热点优化

上述的 LocalGlobal 优化能针对常见普通 agg 有较好的效果(如SUM, COUNT, MAX, MIN, AVG)。但是对于count distinct收效不明显,原因是 count distinct 在 local 聚合时,对于distinct key的去重率不高,导致在 global 节点仍然存在热点。

在旧版本用户为了解决 count distinct 的热点问题时,一般会手动改写成两层聚合(增加按distinct key 取模的打散层,自 2.2.0 版本开始,blink 提供了 count distinct 自动打散,我们称之为 PartialFinal 优化,用户无需自己改写成两层聚合。和 LocalGlobal 的原理对比请结合下图理解。

  1. 适用于使用了 count distinct 且 aggregate 节点性能无法满足时。
  2. 不能包含 UDAF
  3. 因为partial-final优化会自动打散成两层聚合,会引入额外的网络 shuffle,在数据量不大的情况下,可能反而会浪费资源。
    开启方式
    默认不开启,使用参数显式开启

如何判断是否生效
观察最终生成的拓扑图的节点名中是否包含 “Expand” 节点,或者原来一层的 aggregate 变成了两层的 aggregate。

4.count distinct优化

自 blink-2.2.2 支持

有一些统计作业会计算各种维度的uv,比如全网uv、来自手淘的uv、来自pc的uv等等。很多用户都是用 CASE WHEN 来实现这种多维度统计的功能,但是建议使用更标准的 agg with filter 语法,因为 blink 目前的 SQL 优化器能分析出 filter 参数,从而同一个字段上计算不同条件下的 count distinct 能共享 state,减少对 state 的读写操作。性能测试中有一倍的性能提升。

适用场景
我们建议用户将 agg with CASE WHEN 的语法都替换成 agg with filter 的语法,尤其是对同一个字段上计算不同条件下的 count distinct 结果时有极大的性能提升。

使用方式
原始写法

 

优化写法

 

除此之外,还有另一种优化方法
本质上就是在key数量过大的情况下,牺牲一点点准确度,换取更高的性能。
背景
COUNT DISTINCT 的主要性能瓶颈是 AGG 节点的 state 需要保存所有 distinct key 的信息,当 distinct key 数目过大时,state 的读写开销太大。而在很多场景中,完全精确的统计不是那么重要,用户更希望牺牲部分精确度来换取性能上的提升,对于这类场景,用户可以选择使用我们新增的内置 AGG 函数 APPROX_COUNT_DISTINCT。
使用场景

  1. 能接受非精确的结果,准确率在 99% 左右。
  2. 输入必须是 append 流, 目前不支持 retraction。
  3. distinct key 数目 (如 UV) 足够大;如果 distinct key 数目不大,APPROX_COUNT_DISTINCT 性能相对精确计算提升不大。
    注意: APPROX_COUNT_DISTINCT 同样支持 MiniBatch/ Local-Global 等 Aggregate 上的优化。

使用方式
例如,SQL 中直接使用 代替 。

 

两个参数含义如下
col: 任意类型。
accuracy: 指定准确率, 可选参数, 取值范围为 (0.0, 1.0), 默认 0.99; 取值越高, 准确率越高,随之 state 开销越大, 性能越低。

0.TopN的分类以及原理

这里先介绍一下topN,一般分为全局topN和分组topN,分组topN的operator进行了优化,使效率提高。

全局topN
查询的结果只有一组排行榜。比如希望对全网商家按销售额排序,计算出销售额排名前十的商家。这就是全局 TopN,范例如下

 

分组topN
TopN 需要两层 query,子查询中使用ROW_NUMBER()开窗函数来为每条数据标上排名,排名的计算根据PARTITION BY和ORDER BY来指定分区列和排序列,也就是说每一条数据会计算其在所属分区中,根据排序列排序得到的排名。在外层查询中,对排名进行过滤,只取出排名小于 N 的,如 N=10,那么就是取 Top 10 的数据。如果没有指定PARTITION BY那么就是一个全局 TopN 的计算,所以 ROW_NUMBER 在使用上更为灵活。对全网商家根据行业按销售额排序,计算出每个行业销售额前十名的商家,SQL 范例如下。

 
 

1. order by sum(正数) desc 时,要加上正数的过滤条件

UpdateFastRank 是最优算法,其有两个条件:1.输入流有PK信息。2.排序字段的更新是单调的,且单调方向与排序方向相反。如

且已知 sum 的参数不可能有负数,那么需要加上过滤条件从而告诉优化器这个信息,才能优化出 UpdateFastRank 算法(blink-2.2.2+支持) 。如下所示(注意 sum(total_fee) filter …

 

2. 无排名优化

TopN的输出不要带上 rownum,最终前端显式时在做一次排序,这样能极大地减少往结果表输出的数据量。

3. 增加 TopN 的 cache 大小

TopN 为了提升性能有一个 state cache 层,cache 层能提升对 state 的访问效率。topn 的 cache 命中率的计算公式为

 

例如 Top100,配置缓存10000条,并发50,当用户的 patitionBy 的 key 维度较大时,如10万级别,那么 cache 命中率只有 10000*50/100/100000=5%,命中率会很低,导致大量的请求都会击中 state(磁盘,观察 state seek metric 可能会有很多毛刺。性能会大幅下降。

因此当partitionKey维度特别大时,可以适当加大 topn 的 cache size,相对应的也建议适当加大 topn 节点的 heap memory(通过手动资源配置调整)。

#默认10000条,调整 topn cahce 到20万,那么理论命中率能达 200000*50/100/100000 = 100%

 

4. partitionBy 的字段中要有时间类字段

比如每天的排名,要带上day字段。否则 TopN 的结果到最后会由于 state ttl 有错乱。

5.嵌套 TopN 解决热点问题

TopN 的计算与 GroupBy 的计算类似,如果数据存在倾斜,则会有计算热点的现象。比如全局 TopN,那么所有的数据只能汇集到一个节点进行 TopN 的计算,那么计算能力就会受限于单台机器,无法做到水平扩展。解决思路与 GroupBy 是类似的,就是使用嵌套 TopN,或者说两层 TopN。在原先的 TopN 前面,再加一层 TopN,用于分散热点。例如,计算全网排名前十的商铺,会导致单点的数据热点,那么可以先加一层分组 TopN,组的划分规则是根据店铺 ID 哈希取模后分成128组(并发的倍数)。第二层 TopN 与原先的写法一样,没有 PARTITION BY。第一层会计算出每一组的 TopN,而后在第二层中进行合并汇总,得到最终的全网前十。第二层虽然仍是单点,但是大量的计算量由第一层分担了,而第一层是可以水平扩展的。使用嵌套 TopN 的优化写法如下所示

 
 

1. 使用内置函数替换自定义函数

请尽量使用内置函数,在老版本时,由于内置函数不齐全,很多用户都用的三方包的自定义函数。在 blink-2.x 中,我们对内置函数做了很多的优化(主要是节省了序列化/反序列化、以及直接对 bytes 进行操作,但是自定义函数无法享受到这些优化。

2. KEYVALUE 函数使用单字符的分隔符

KEYVALUE 的签名是:KEYVALUE(content, keyValueSplit, keySplit, keyName),当keyValueSplit和KeySplit是单字符时,如’:’,’,'会使用优化的算法,会在二进制数据上直接寻找所需的 keyName 的值,而不会将整个 content 做切分。性能约有 30% 提升。

3. 多 KEYVALUE 场景使用 MULTI_KEYVALUE

自 blink-2.2.2 支持

如果在 query 中有对同一个 content 做大量 KEYVALUE 的操作,比如 content 中包含10个 key-value 对,希望把10个 value 的值都取出来作为字段。用户经常会写10个KEYVALUE函数,那么就会对 content 做10次解析。在这种场景建议使用 MULTI_KEYVALUE,这是一个表值函数。使用该函数可以只对 content 做一次 split 解析。性能约有 50%~100%的性能提升。

4. LIKE 操作注意事项

如果想做 startWith 的操作,用 LIKE ‘xxx%’
如果想做 endWith 的操作,用 LIKE ‘%xxx’
如果想做 contains 的操作,用 LIKE ‘%xxx%’
如果是做 equals 操作,用 LIKE ‘xxx’,其实和 str = ‘xxx’等价
如果想匹配 字符,请注意要做转义 LIKE ‘%seller/id%’ ESCAPE ‘/’。因为 _ 在 SQL 中是个单字符的通配符,能匹配上任何字符,如果声明成 LIKE %seller_id%’,那么 不单单会匹配 “seller_id” 还会匹配"seller#id", “sellerxid”, “seller1id” 等等,可能会导致结果不是预期的,而且在运行时会使用正则来匹配,效率就会特别慢。

5. 慎用正则函数(REGEXP

正则表达式是非常耗时的操作,对比加减乘除通常有百倍的性能开销,而且正则表达式在某些极端情况下可能会进入无限循环,导致作业卡住。所以如果正则能改写 LIKE 的,就尽量用 LIKE。见上文第四点说明。正则函数包括:REGEXP, REGEXP_EXTRACT, REGEXP_REPLACE。

下游分配策略的方法优化,目前常见的Partitioner 策略包括

  1. KeyGroup/Hash: 根据指定的 key 分配
  2. Rebalance: 轮询分配给各个channel
  3. Dynamic-Rebalance: 根据下游负载情况动态选择分配给负载较低的 channel。
  4. Forward: 未 chain 一起时,同Rebalance。chain一起时是一对一分配。
  5. Rescale: 上游与下游一对多或多对一。

1. 使用 Dynamic-Rebalance 替代 Rebalance

Dynamic Rebalance,它可以根据当前各subpartition中堆积的buffer的数量,选择负载较轻的subpartition进行写入,从而实现动态的负载均衡。相比于静态的rebalance策略,在下游各任务计算能力不均衡时,可以使各任务相对负载更加均衡,从而提高整个作业的性能。例如,在使用 rebalance 时,发现下游各个并发负载不均衡时,可以考虑使用 Dynamic-Rebalance。

参数, 默认关闭。

2. 使用 Rescale 替代 Rebalance

自 blink-2.2.2 支持

例如上游是5个并发,下游是10个并发。当使用 Rebalance 时,上游每个并发会轮询发给下游10个并发。当使用 Rescale 时,上游每个并发只需轮询发给下游2个并发。因为 channel 个数变少了,subpartition的 buffer 填充速度能变快,能提高网络效率。当上游的数据比较均匀时,且上下游的并发数成比例时,可以使用 Rescale 替换成 Rebalance。

参数,默认关闭。

自 blink-2.2.2 支持

Gemini是基于内存的state backend,相对于niagara/rocksdb减少了序列化以及JNI的开销,state读写速度更快,CPU消耗更低。Gemini主要适用于state较小并且state bound的场景,在追数据上具有明显优势(实测可以达到niagara的3-4倍)。另外Gemini提供了spill机制以确保不会发生gc问题或OOM。

适用条件
作业使用niagara state backend的峰值checkpoint size不超过(并发数 * 200)MB。

Gemini配置
Gemini详细使用方法见文档《GeminiStateBackend使用说明》 。

综上所述,作业建议使用如下的推荐配置

最新文章
第4章生产理论PPT课件
《第4章生产理论PPT课件》由会员分享,可在线阅读,更多相关《第4章生产理论PPT课件(47页珍藏版)》请在装配图网上搜索。1、单击此处编辑母版标题样式,单击此处编辑母版文本样式,第二级,第三级,第四级,第五级,*,制作者:张昌廷(河北经贸
OPPO R11s手机root_kernelSU完美root教程
目前root主流依赖是magisk授权,但今天给大家介绍一个全新的root方式kernelSU,KernelSU是一款安卓设备的Root应用,因其工作在内核模式,可直接接入内核空间中,为用户应用程序授予root权限。可实现相较于magisk软件更完美的隐藏效果,轻松
高清美女写真生成,探索最强AI绘画工具!
使用搜狐简单AI生成美女写真过程其实相当简单,下面是步骤总结:打开搜狐简单AI微信小程序:在微信中搜索“搜狐简单AI”,找到小程序并点击进入。选择风格和主题:在主界面,你可以看到多个风格、主题供你选择,点击进入所需风格制作。输入
职业规划和晋升机会的关系?
在职业生涯中,职业规划和晋升机会之间存在着紧密的联系。一个明确的职业规划不仅有助于个人的长远发展,而且能够显著提高获得晋升机会的可能性。下面将详细探讨职业规划和晋升机会之间的关系。首先,职业规划是个人对自己未来职业发展的全
执掌深渊,从见习神官开始
  金黄色碎光洒上桌台,驳杂的窗影摇晃,书页翻过的轻声窸窣可闻。  【你直视了禁忌】  【触发“神性”豁免判定,最低神性要求为“10”,你的神性为“12”……】  【豁免成功,免疫此次精神污染】  ……  少年罗修,或者说,晨
达州网站优化-正规白帽技术
【网商在线】全称深圳市网商在线科技有限公司成立于2014年,网商在线是一家专注seo搜索引擎优化的技术型网络公司,12年SEO搜索引擎优化实战经验,致力于百度PC,手机端,360搜索,搜狗,神马等关键词seo排名优化.效果稳定,见效快。达州,古称“
短剧魅力尽显,小妻太撩人,全集完整版免费观看
摘要:这部短剧《小妻太撩》展现了一段充满魅力的爱情故事,吸引了众多观众的目光。剧情紧凑,人物鲜明,通过精彩的演绎,展现了主角们之间的情感纠葛。该短剧提供免费观看全集完整版的渠道,让观众能够一次性欣赏完整的故事情节,更加深入
这些才是真香机!2024 11.11 高性价比手机推荐(1500
这段视频主要介绍了2024年双十一手机购买攻略。重点推荐了1500-4500元档位的机型,详细分析了一加S3V、iqoo Z9 turbo、荣耀100 pro等不同价位手机的优缺点。视频还介绍了拼多多平台的优惠活动,并对各类旗舰机型进行了性能、续航、拍照
撒拉族服饰经过了怎样的历史变迁
  撒拉族,是一个信仰伊斯兰教的民族,因自称“撒拉尔”,简称“撒拉”而得名。有人认为撒拉族是古代西突厥乌古斯部撒鲁尔的后裔,唐代时原住中国境内,后西迁中亚。自元代取道撒马尔罕,东返中国,行至今青海循化地区定居,至今已有七百
自主制造执行系统中的调度执行外文翻译doc.png
"自主制造执行系统中的调度执行"这个术语可能指的是在一个自动化制造系统或工业自动化环境中,调度器负责管理制造任务的顺序和执行。在自主制造执行系统中,调度执行是确保生产流程顺畅进行的关键部分。如果需要将这个概念翻译成英文,可能
相关文章
推荐文章
发表评论
0评