鲲鹏社区首页
中文
注册
开发者
我要评分
获取效率
正确性
完整性
易理解
在线提单
论坛求助

同步配置到其他节点

将Spark的配置同步到agent1~agent3,完成Spark集群部署。

  1. 将spark-3.3.1-bin-hadoop3.2同步到agent1~agent3的“/usr/local”目录。
    1
    2
    3
    scp -r /usr/local/spark-3.3.1-bin-hadoop3.2 root@agent1:/usr/local
    scp -r /usr/local/spark-3.3.1-bin-hadoop3.2 root@agent2:/usr/local
    scp -r /usr/local/spark-3.3.1-bin-hadoop3.2 root@agent3:/usr/local
    
  2. 分别登录到agent1~agent3节点,为spark-3.3.1-bin-hadoop3.2创建软链接。
    1
    2
    cd /usr/local
    ln -s spark-3.3.1-bin-hadoop3.2 spark