鲲鹏社区首页
中文
注册
我要评分
文档获取效率
文档正确性
内容完整性
文档易理解
在线提单
论坛求助

同步配置到其它节点

  1. 拷贝spark-2.3.2-bin-hadoop2.7到agent1、agent2、agent3的“/usr/local”目录。
    1
    2
    3
    scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent1:/usr/local
    scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent2:/usr/local
    scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent3:/usr/local
    
  2. 分别登录到agent1、agent2、agent3节点,为spark-2.3.2-bin-hadoop2.7建立软链接。
    1
    2
    cd /usr/local
    ln -s spark-2.3.2-bin-hadoop2.7 spark