鲲鹏社区首页
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助

部署Spark UDF插件

  1. 在所有节点的“~/.bashrc”文件中添加如下环境变量。
    export OMNI_HOME=/opt/omni-operator
  2. 将UDF依赖的JAR放置到HDFS的“/user/hive-udf”目录下。
    • “/user/hive-udf”目录用户可自行定义。
    • UDF依赖的JAR需要用户自行提供。
  3. 在集群的管理节点注册Hive UDF。

    注册方式参考Spark集成HiveUDF官方文档