同步配置到其它节点
- 拷贝spark-2.3.2-bin-hadoop2.7到agent1、agent2、agent3的“/usr/local”目录。
1 2 3
scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent1:/usr/local scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent2:/usr/local scp -r /usr/local/spark-2.3.2-bin-hadoop2.7 root@agent3:/usr/local
- 分别登录到agent1、agent2、agent3节点,为spark-2.3.2-bin-hadoop2.7建立软链接。
1 2
cd /usr/local ln -s spark-2.3.2-bin-hadoop2.7 spark