admin 管理员组

文章数量: 1184232

链接:https://pan.baidu/s/17RUi3Rpu5q4YqJpaw4Zbbg 
提取码:d88l 

1、首先在主节点master上启动hadoop

进入以下目录:

/usr/local/softwares/hadoop-2.7.2/sbin

执行以下命令,启动hadoop:

./start-all.sh

2、用jps命令查看三个节点的所有进程:

确认hadoop的进程在三个节点上全部启动

3、再在主节点master上启动spark

进入以下目录:/usr/local/softwares/spark-2.3.2-bin-hadoop2.7/sbin

执行以下命令,启动spark:

./start-all.sh

4、用jps命令查看三个节点的所有进程:

确认spark的进程在三个节点上全部启动,master节点多了 master、worker进程;

Master

 Salves1

 

本文标签: 下载地址 百度网 spark