hadoop-1.2.1安装配置

1.准备三台节点 hnd1  hnd2  hnd3

下载 hadoop 

下载地址:http://apache.fayea.com/hadoop/common/

API文档:http://hadoop.apache.org/docs/r1.0.4/cn/index.html

2.解压;tar -zxvf hadoop-1.2.1.tar.gz
添加软连接:ln -sf /home/hadoop/package/hadoop-1.2.1 /home/hadoop-1.2

3.更改配置:
进入/home/hadoop-1.2/conf
修改 vi core-site.xml 配置hdfs的入口和工作目录
可参考:http://hadoop.apache.org/docs/r1.2.1/single_node_setup.html
file:///D:/tool/%E6%96%87%E6%A1%A3/db/hadoop-1.2.1/hadoop-1.2.1/docs/core-default.html
修改hadoop.tmp.dir这个目录 dfs等很多工作目录是以此为基础的

<configuration>
         <property>
                 <name>fs.default.name</name>
                 <value>hdfs://hnd1:9000</value>
         </property>

         <property>
                 <name>hadoop.tmp.dir</name>
                 <value>/opt/hadoop-1.2</value>
         </property>

</configuration>

修改 vi hdfs-site.xml 配置副本数 不配的情况下默认是3

<configuration>
        <property>
                 <name>dfs.replication</name>
                 <value>2</value>
         </property>
</configuration>

修改 vi slaves 配置datanode
hnd2
hnd3

修改 vi masters 配置second NameNode
hnd2 就是second NameNode配置到第二台系统中

4.ssh免密码登录
生成密钥到/root/.ssh目录下
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
执行下面命令实现本地免密码登录
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
跨系统免密码登录
拷贝hnd1公钥到hnd2root目录下 scp id_dsa.pub root@hnd2:~
在hnd2中root目录下 cat id_dsa.pub >> ~/.ssh/authorized_keys
这样就可以访问了

5.启动服务
把tar包拷贝到其它节点上
scp -r /home/hadoop/package/hadoop-1.2.1.tar.gz root@hnd2:~/
scp -r /home/hadoop/package/hadoop-1.2.1.tar.gz root@hnd3:~/
解压 tar -zxvf hadoop-1.2.1.tar.gz
创建软链ln -sf /root/hadoop-1.2.1 /home/hadoop-1.2
把hnd1的配置/home/hadoop-1.2/conf
这个目录全部拷贝到hnd2\hnd3
scp ./* root@hnd2:/home/hadoop-1.2/conf/
scp ./* root@hnd3:/home/hadoop-1.2/conf/
bin目录下格式化 ./hadoop namenode -format
启动服务 ./start-dfs.sh

6.启动时JAVA_HOME is not set.
conf 配置
vi hadoop-env.sh

JAVA_HOME的配置
解压 tar -zxvf jdk-8u91-linux-x64.tar.gz
配置 export JAVA_HOME=/usr/java/jdk1.8.0_77
PATH=$JAVA_HOME/bin:$PATH:$HOME/bin
执行 source .bash_profile
查看 Java -version OK

其它节点安装jdk
拷贝 scp -r /home/hadoop/package/jdk-8u91-linux-x64.tar.gz root@hnd2:~/
scp -r /home/hadoop/package/jdk-8u91-linux-x64.tar.gz root@hnd3:~/


7.
jps 查看启动的进程
其他节点上的进程没有启动 关闭防火墙
service iptables stop

8.访问 http://hnd1:50070/
本地需要配置域名解析
C:\Windows\System32\drivers\etc hosts

9.


ssh: Could not resolve hostname hnd2: Name or service not known
vi /etc/hosts
192.168.40.101 hnd1
192.168.40.102 hnd2
192.168.40.103 hnd3

vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=h1

 

xshell 连接linux命令 ssh 192.168.40.101
断开的命令:exit

 

IT技术和行业交流群: 417691667

转载于:https://www.cnblogs.com/sun-rain/p/5429715.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值