SPARK调优之本地化级别

时间:2019-08-16 16:26:20   收藏:0   阅读:74

Spark在Driver上对Application的每个task任务进行分配之前,都会先计算出每个task要计算的对应的数据分片的位置。Spark的task分配算法优先考虑将task分配到分片数据所在的节点,以此来避免网络间数据传输带来的性能消耗。但是在实际的生产环境,有可能某些task没有机会分配到其所要计算的数据所在的节点;因为某些节点的计算资源都已经被占用完了;在这个时候,task会等待一段时间,默认情况是3s,等待时间过了以后,还是没有轮到其执行,task就会去选择一种比较差的本地化级别去执行

技术分享图片

技术分享图片

技术分享图片

 

原文:https://www.cnblogs.com/xiangyuguan/p/11364471.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!