遗留问题
问题单号 |
DTS2024060329127 |
|---|---|
严重级别 |
一般 |
问题描述 |
在Spark执行INSERT语句且只有1个数据分区的场景下,当出现50个表连续SMJ(Sort Merge Join)操作时,可能会导致SMJ算子在堆外内存耗尽时调用new来申请vector内存,从而引发core dump问题。 |
根因分析 |
|
影响评估 |
该用例属于比较高负载的场景,Spark作业本身是为了利用大规模集群的并发优势,正常情况下不会存在单个task(单线程)执行大量表join的业务场景。当前暂未在真实业务场景下遇到该问题,对客户影响很小。 |
规避和应急措施 |
|
解决计划 |
|
父主题: V1.5.0