摘要:在本篇文章中我们将对 RocksDB、Heap 和 Gemini 在相同场景下进行压测,并对其资源消耗进行对比。测试的 Flink 内核版本为 1.10.0。
测试场景
CheckpointInterval:10分钟
CheckpointingMode: EXACTLY_ONCE
CheckpointTimeout:3分钟
setCompressionType:LZ4_COMPRESSION
setTargetFileSizeBase:128 * 1024 * 1024
setMinWriteBufferNumberToMerge:3
setMaxWriteBufferNumber:4
setWriteBufferSize:1G
setBlockCacheSize:10G
setBlockSize:4 * 1024
setFilter:BloomFilter(10, false)
使用 MemoryStateBackend 需要增加非常多的 Heap 空间用于存储窗口内的状态数据(样本),相对于把数据放到磁盘的优点是处理性能非常好,但缺点很明显:由于 Java 对象在内存的存储效率不高,GB 级别的内存只能存储百兆级别的真实物理数据,所以会有很大的内存开销,且 JVM 大堆 GC 停机时间相对较高,影响作业整体稳定,另外遇到热点事件会有 OOM 风险。
使用 RocksDB 则需要较少的 Heap 空间即可,加大 Native 区域用于读缓存,结合 RocksDB 的高效磁盘读写策略仍然有很好的性能表现。
state.backend=org.apache.flink.runtime.state.gemini.GeminiStateBackendFactory
// 指定Gemini存储时的本地目录
kubernetes.taskmanager.replace-with-subdirs.conf-keys= state.backend.gemini.local.dir
state.backend.gemini.local.dir=/mnt/disk3/state,/mnt/disk5/state
// 指定Gemini的page压缩格式(page是Gemini存储的最小物理单元)
state.backend.gemini.compression.in.page=Lz4
// 指定Gemini允许使用的内存占比
state.backend.gemini.heap.rate=0.7
// 指定Gemini的单个存储文件大小
state.backend.gemini.log.structure.file.size=134217728
// 指定Gemini的工作线程数
state.backend.gemini.region.thread.num=8
机器配置
作业使用资源对应参数
内存相关参数
对比结果
Note:全量的样本拼接负载使用 16 台机器无法完全服务,因此我们通过对数据进行不同比例的抽样来进行压测。当出现反压时,我们认为作业已经达到性能瓶颈。
结论
曹富强、晨馨,微博机器学习研发中心-高级系统工程师。现负责微博机器学习平台数据计算/数据存储模块,主要涉及实时计算 Flink、Storm、Spark Streaming,数据存储Kafka、Redis,离线计算 Hive、Spark 等。目前专注于Flink/Kafka/Redis在微博机器学习场景的应用,为机器学习提供框架,技术,应用层面的支持。
专注大数据技术、架构、实战
关注我,带你不同角度看数据架构
本文分享自微信公众号 - 大数据每日哔哔(bb-bigdata)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。
来源:oschina
链接:https://my.oschina.net/cutexim/blog/4473229