spark怎么调节executor堆外内存

63次阅读
没有评论

共计 2356 个字符,预计需要花费 6 分钟才能阅读完成。

这篇文章主要讲解了“spark 怎么调节 executor 堆外内存”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着丸趣 TV 小编的思路慢慢深入,一起来研究和学习“spark 怎么调节 executor 堆外内存”吧!

什么时候需要调节 Executor 的堆外内存大小?
当出现一下异常时:
shuffle file cannot find,executor lost、task lost,out of memory

出现这种问题的现象大致有这么两种情况:

Executor 挂掉了,对应的 Executor 上面的 block manager 也挂掉了,找不到对应的 shuffle map output 文件,Reducer 端不能够拉取数据

Executor 并没有挂掉,而是在拉取数据的过程出现了问题。

上述情况下,就可以去考虑调节一下 executor 的堆外内存。也许就可以避免报错;此外,有时,堆外内存调节的比较大的时候,对于性能来说,也会带来一定的提升。这个 executor 跑着跑着,突然内存不足了,堆外内存不足了,可能会 OOM,挂掉。block manager 也没有了,数据也丢失掉了。

如果此时,stage0 的 executor 挂了,BlockManager 也没有了;此时,stage1 的 executor 的 task,虽然通过
Driver 的 MapOutputTrakcer 获取到了自己数据的地址;但是实际上去找对方的 BlockManager 获取数据的
时候,是获取不到的。

此时,就会在 spark-submit 运行作业(jar),client(standalone client、yarn client),在本机就会打印出 log:shuffle output file not found。。。DAGScheduler,resubmitting task,一直会挂掉。反复挂掉几次,反复报错几次, 整个 spark 作业就崩溃了

--conf spark.yarn.executor.memoryOverhead=2048
spark-submit 脚本里面,去用 --conf 的方式,去添加配置;一定要注意!!!切记,不是在你的 spark 作业代码中,用 new SparkConf().set() 这种方式去设置,不要这样去设置,是没有用的!一定要在 spark-submit 脚本中去设置。

spark.yarn.executor.memoryOverhead(看名字,顾名思义,针对的是基于 yarn 的提交模式)默认情况下,这个堆外内存上限默认是每一个 executor 的内存大小的 10%;后来我们通常项目中,真正处理大数据的时候,这里都会出现问题,导致 spark 作业反复崩溃,无法运行;此时就会去调节这个参数,至少 1G(1024M),甚至说 2G、4G, 通常这个参数调节上去以后,就会避免掉某些 JVM OOM 的异常问题,同时呢,会让整体 spark 作业的性能,得到较大的提升。

调节等待时长!!!

executor,优先从自己本地关联的 BlockManager 中获取某份数据

如果本地 BlockManager 没有的话,那么会通过 TransferService,去远程连接其他节点上 executor
的 BlockManager 去获取, 尝试建立远程的网络连接,并且去拉取数据,task 创建的对象特别大,特别多频繁的让 JVM 堆内存满溢,进行垃圾回收。正好碰到那个 exeuctor 的 JVM 在垃圾回收。

JVM 调优:垃圾回收

处于垃圾回收过程中,所有的工作线程全部停止;相当于只要一旦进行垃圾回收,spark / executor 停止工作,无法提供响应,此时呢,就会没有响应,无法建立网络连接,会卡住;ok,spark 默认的网络连接的超时时长,是 60s,如果卡住 60s 都无法建立连接的话,那么就宣告失败了。碰到一种情况,偶尔,偶尔,偶尔!!!没有规律!!!某某 file。一串 file id。uuid(dsfsfd-2342vs–sdf–sdfsd)。not found。file lost。这种情况下,很有可能是有那份数据的 executor 在 jvm gc。所以拉取数据的时候,建立不了连接。然后超过默认 60s 以后,直接宣告失败。报错几次,几次都拉取不到数据的话,可能会导致 spark 作业的崩溃。也可能会导致 DAGScheduler,反复提交几次 stage。TaskScheduler,反复提交几次 task。大大延长我们的 spark 作业的运行时间。

 可以考虑调节连接的超时时长。--conf spark.core.connection.ack.wait.timeout=300

spark-submit 脚本,切记,不是在 new SparkConf().set() 这种方式来设置的。spark.core.connection.ack.wait.timeout(spark core,connection,连接,ack,wait timeout,建立不上连接的时候,超时等待时长)调节这个值比较大以后,通常来说,可以避免部分的偶尔出现的某某文件拉取失败,某某文件 lost 掉了。。。

为什么在这里讲这两个参数呢?

因为比较实用,在真正处理大数据(不是几千万数据量、几百万数据量),几亿,几十亿,几百亿的时候。
很容易碰到 executor 堆外内存,以及 gc 引起的连接超时的问题。
file not found,executor lost,task lost。

调节上面两个参数,还是很有帮助的。

感谢各位的阅读,以上就是“spark 怎么调节 executor 堆外内存”的内容了,经过本文的学习后,相信大家对 spark 怎么调节 executor 堆外内存这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是丸趣 TV,丸趣 TV 小编将为大家推送更多相关知识点的文章,欢迎关注!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-08-16发表,共计2356字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)