admin 管理员组

文章数量: 1184232

前提:需要安装了jdk和python

步骤:安装spark+hadhoop(这两个要同时安装spark才可以运行)

下载并安装spark
1.从官网http://spar.apache/上下载最新的版本,保存在你喜欢的位置(在我这,我把它保存到了C盘根目录下并创建了一个文件夹spark)
2.打开【编辑系统环境变量】-【环境变量】-【系统变量】

3.点击【新建】
将以下内容加入【系统变量】中

4.再到【系统变量】中的【path】里添加:
%SPARK_HOME%\bin
%SPARK_HOME%\sbin

下载hadhoop
1.点击这个链接,进入后就会自动下载并解压到C盘中,(我这里就是保存到C盘的Hadoop文件夹)

本文标签: 下载并安装 Windows spark