- 博客(2)
- 收藏
- 关注
原创 Hadoop2.6.0启动脚本分析
Start-all.sh启动原理 Step1:start-all.sh 先看sbin目录下的start-all.sh脚本。 抛出注释,内容很少: # Start all hadoop daemons. Run this on master node. 这个脚本在hadoop-2.6.0被建议不要使用。推荐使用的是分别启动start-dfs.sh和start-yarn.sh. 其内
2016-10-17 12:48:34 2124
转载 Spark2.0安装
Spark伪分布安装(依赖Hadoop) 一、伪分布安装Spark 安装环境: Ubuntu 14.04 LTS 64位+Hadoop2.7.2+Spark2.0.0+jdk1.7.0_76 linux下的第三方软件应该安装在/opt目录下,约定优于配置,遵循这一原则是良好的环境配置习惯。所以这里安装的软件都在/opt目录下。 1、安装jdk1.7
2016-10-12 08:58:49 1203
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人