遗留问题
问题单号  | 
DTS2024060329127  | 
|---|---|
严重级别  | 
一般  | 
问题描述  | 
在Spark引擎中OmniOperator算子加速执行Insert语句且只有1个数据分区的场景,当出现50个表连续Sort Merge Join时,算子加速SMJ算子在堆外内存耗尽时调用new申请vector内存导致coredump问题。  | 
根因分析  | 
  | 
影响评估  | 
该用例属于比较极限的场景,Spark作业本身是为了利用大规模集群的并发优势,正常情况下不会存在单个task(单线程)执行大量表join的业务场景。当前暂未在真实业务场景下遇到该问题,对客户影响很小。  | 
规避和应急措施  | 
  | 
解决计划  | 
  | 
父主题: V1.5.0