返回顶部我要评分获取效率正确性完整性易理解0/200提交关闭在线提单论坛求助 已解决的问题 问题单号 DTS2024060329127 严重级别 一般 问题描述 在Spark执行INSERT语句且只有1个数据分区的场景下,当出现50个表连续SMJ(Sort Merge Join)操作时,可能会导致SMJ算子在堆外内存耗尽时调用new来申请vector内存,从而引发core dump问题。 父主题: V1.6.0