1,首先要安装jdk,这里就不介绍了
2,将下载好的Hadoop安装包拖到你的Linux中(自己找一个路径)我这里以hadoop-2.6.0-cdh5.14.2.tar.gz包放在/opt/下面作为演示
2,解压安装包:tar -zxf hadoop-2.6.0-cdh5.14.2.tar.gz
3.将解压好的文件移到我的opt/soft/下面:mv hadoop-2.6.0-cdh5.14.2 /soft/hadoop260
4,进到hadoop260/etc/hadoop下面,修改以下文件
(1)vim hadoop-env.sh 将java_home改为jdk安装的所在路径
(2)vim core-site.xml 添加下面内容,网址改为自己当前虚拟机的网关,Hadoop端口号默认为9000,第二个的路径也要注意修改
(3)vim hdfs-site.xml 添加下面内容
(4)cp mapred-site.xml.template mapred-site.xml复制并改为xml文件,添加下面内容
(5)vim yarn-site.xml 添加以下内容
5,生成密钥 ssh-keygen -t rsa -P ' '
实验一下是否成功:ssh hd02
6,伪分布式复制到自己:@后面为自己的hostname ssh-copy-id root@hd02 执行后里面需要的都选yes
7, vim /etc/profile 配置hadoop的环境变量 ,添加下面内容
8,激活环境变量 source /etc/profile
9, 格式化namenode: hdfs namenode -format
10, 启动hadoop: start-all.sh或 start-dfs.sh start-yarn.sh
11,查看是否全部启动:jps 如果除jps外还有5个下面内容则成功
z