在启动OmniData算子下推前,必须完成Ceph/HDFS和OmniData算子下推Native化配置,而当集群中HDFS和ZooKeeper为安全模式时还需完成Kerberos配置。
OmniData算子下推服务启动时需要读取HDFS/Ceph的配置文件,用户需要上传配置文件hdfs-site.xml和core-site.xml(可在ceph1/hdfs1、ceph2/hdfs2、ceph3/hdfs3节点上进行搜索,在Hadoop安装目录下的“etc/hadoop/”中)到OmniData的“etc”目录下面。
如表1所示,可以添加文件传输的操作,以Ceph为例,把本地路径的hdfs-site.xml传输至选中服务器(ceph1、ceph2、ceph3节点)的“/home/omm/omnidata-install/omnidata/etc/”路径下。core-site.xml的上传方式相同。
参数 |
内容 |
---|---|
任务名称 |
传输配置文件 |
任务描述 |
选择所有卸载节点,传输配置文件 |
传输方向 |
从本地传至远端主机 |
本地路径 |
本地路径的hdfs-site.xml |
远端路径 |
/home/omm/omnidata-install/omnidata/etc/ |
若访问Ceph,卸载节点(ceph1~ceph3)则需要准备多个依赖包:
在卸载节点上添加如下配置到“/home/omm/omnidata-install/omnidata/etc/config.properties”中。
1 2 | cd /home/omm/omnidata-install/omnidata/etc vi config.properties |
1 2 3 | operator.combine.enabled=true operator.lib.path=/opt/omni-operator/lib dynamic.lib.path=/usr/local/lib/HMPP |
只有在日志等级为DEBUG级别时,才能看到Native化日志记录。如想查看Native化日志,修改“/home/omm/omnidata-install/omnidata/etc/logback.xml”日志级别为DEBUG。如:
1 2 3 4 | <!-- L0G LEVEL --> <root level="DEBUG"> <appender-ref ref="FILE" /> </root> |
在卸载节点上添加如下配置到“/home/omm/omnidata-install/omnidata/etc/config.properties”中。同时将相关配置文件(krb5.conf、hdfs.keytab、client_jass.conf等)拷贝到“etc”目录下。
1 2 | cd /home/omm/omnidata-install/omnidata/etc vi config.properties |
hdfs.authentication.type=KERBEROS hdfs.krb5.conf.path=/home/omm/omnidata-install/omnidata/etc/krb5.conf hdfs.krb5.keytab.path=/home/omm/omnidata-install/omnidata/etc/hdfs.keytab hdfs.krb5.principal=hdfs/server1@EXAMPLE.COM
cp xxx/krb5.conf /home/omm/omnidata-install/omnidata/etc/ cp xxx/hdfs.keytab /home/omm/omnidata-install/omnidata/etc/
zookeeper.krb5.enabled=true zookeeper.java.security.auth.login.config=/home/omm/omnidata-install/omnidata/etc/client_jaas.conf zookeeper.krb5.conf=/home/omm/omnidata-install/omnidata/etc/krb5.conf cp xxx/client_jaas.conf /home/omm/omnidata-install/omnidata/etc/ cp xxx/krb5.conf /home/omm/omnidata-install/omnidata/etc/
chown omm /home/omm/omnidata-install/omnidata/etc/*