1.安装Hadoop集群中4个配置文件的标签不能错,要在英文状态下输入不然会出现这种情况
2.安装spark之前先安装Scala
解压Scala后配置文件etc/profile然后使配置的环境变量生效
有版本显示说明安装成功
3.安装spark
先解压至/usr/local/src/
配置环境变量中有Java的位置Hadoop的位置需要设置清楚
启动spark的主节点
start-master.sh在sbin下面启动
命令如下./start-all.sh
1.安装Hadoop集群中4个配置文件的标签不能错,要在英文状态下输入不然会出现这种情况
2.安装spark之前先安装Scala
解压Scala后配置文件etc/profile然后使配置的环境变量生效
有版本显示说明安装成功
3.安装spark
先解压至/usr/local/src/
配置环境变量中有Java的位置Hadoop的位置需要设置清楚
启动spark的主节点
start-master.sh在sbin下面启动
命令如下./start-all.sh