hadoop搭建

Hadoop搭建

一、在修改hostname和hosts
1.修改hostname
sudo vi /etc/hostname
2.修改hosts, 是各个节点之间可以通过主机名连接
sudo vi /etc/hosts

二、在Ubuntu下创建hadoop用户组和用户
1.添加hadoop用户到系统用户
sudo addgroup hadoop  
sudo adduser --ingroup hadoop hadoop  
2.现在只是添加了一个用户hadoop,它并不具备管理员权限,我们给hadoop用户添加权限,打开/etc/sudoers文件
sudo vi /etc/sudoers 
在root ALL=(ALL:ALL) ALL下添加 hadoop ALL=(ALL:ALL) ALL 

三、配置ssh免密码连入
1.作为一个安全通信协议(ssh生成密钥有rsa和dsa两种生成方式,默认情况下采用rsa方式),使用时需要密码,因此我们要设置成免密码登录,生成私钥和公钥:
ssh-keygen -t rsa -P ""  
(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的前者为私钥,后者为公钥)
2.进入~/.ssh/目录下,将公钥id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的(authorized_keys 用于保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容):
cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys 
ssh localhost //测试本地免密码登录 
exit
3.各个节点之间SSH免密码登录
在namenode上面执行:
ssh-copy-id -I ~/.ssh/id_rsa.pub datanode // datanode是主机名
在datanode上面执行:
ssh-copy-id -I ~/.ssh/id_rsa.pub namenode // namenode是主机名

四、安装JDK
1.解压到 /usr/local/jdk (可根据需要改变)
2.配置环境变量
sudo vi /etc/profile
最后添加:
export JAVA_HOME=/usr/local/jdk
export PATH=.:$PATH:$JAVA_HOME/bin
使配置生效:
source /etc/profile

五、安装hadoop
1.解压到 /usr/local/hadoop (可根据需要改变)
2.配置环境变量
sudo vi /etc/profile
修改:
export JAVA_HOME=/usr/local/jdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
使配置生效:
source /etc/profile
3.要确保所有的操作都是在用户hadoop下完成的,所以将该hadoop文件夹的属主用户设为hadoop
sudo chown -R hadoop:hadoop hadoop  
4.配置hadoop-env.sh
sudo vi /usr/local/hadoop/conf/hadoop-env.sh
在:# export JAVA_HOME=/usr/lib/j2sdk1.5-sun 后面添加:
export JAVA_HOME=/usr/local/jdk
使配置生效:
source /usr/local/hadoop/conf/hadoop-env.sh

六、 分布模式的一些配置
这里需要设定5个文件:core-site.xml,hdfs-site.xml,mapred-site.xml,masters,slaves都在/usr/local/hadoop/conf目录下
core-site.xml: Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。
hdfs-site.xml: Hadoop 守护进程的配置项,包括namenode,辅助namenode和datanode等。
mapred-site.xml: MapReduce 守护进程的配置项,包括jobtracker和tasktracker。
masters: 添加namenode节点的IP。
slaves: 添加datanode节点的IP。

1.core-site.xml:
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
<description>hadoop 的运行临时文件的主目录</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop:9000</value>
<description>HDFS 的访问路径</description>
</property>
</configuration>

2.hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>存储副本数</description>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

3.mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop:9001</value>
<description>JobTracker 的访问路径</description>
</property>
</configuration>

4.masters
去掉默认的localhost,添加namenode的ip地址

5.slaves
去掉默认的localhost,添加datanode的ip地址

七、复制JDK和Hadoop到其它节点
scp –r /usr/local/jdk hadoop@datanode:/usr/local
scp –r /usr/local/hadoop hadoop@datanode:/usr/local
scp –r /etc/profile hadoop@datanode:/etc
注意各个节点文件的权限问题。

八、格式化文件系统
1.hdfs 是 文 件 系 统 , 所 以 在 第 一 次 使 用 之 前 需 要 进 行 格 式 化
/usr/local/hadoop/bin/hadoop namenode -format

九、启动
1.一次性全部启动
/usr/local/hadoop/bin/start-all.sh
2.单独启动hdfs
/usr/local/hadoop/bin/start-dfs.sh
3.单独启动MapReduce
/usr/local/hadoop/bin/start-mapred.sh

十、网页中查看状态
1.http://192.168.2.226:50070/dfshealth.jsp 网址为namenode节点对应IP
2.http://192.168.2.226:50030/jobtracker.jsp 网址为namenode节点对应IP
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
搭建Hadoop的高可用(HA)环境,你需要考虑以下几个步骤: 1. 配置Hadoop集群:确保你已经成功地设置了一个Hadoop集群,并且所有节点都能够正常通信。 2. 配置ZooKeeper:HA模式下,Hadoop使用ZooKeeper来进行主节点的选举和故障切换。你需要安装和配置ZooKeeper集群。 3. 修改Hadoop配置文件:在core-site.xml、hdfs-site.xml和yarn-site.xml等配置文件中,进行如下修改: - 在core-site.xml中,指定ZooKeeper的地址。 - 在hdfs-site.xml中,设置HA相关的属性,如nameservice、namenode、journalnode等。 - 在yarn-site.xml中,设置ResourceManager的高可用属性。 4. 启动JournalNodes:JournalNodes用于存储HDFS的元数据日志,并确保数据的一致性。启动JournalNodes之前,需要在hdfs-site.xml中指定JournalNode的地址。 5. 格式化NameNode:使用`hdfs namenode -format`命令格式化NameNode。这将创建一个新的命名空间并为HA做准备。 6. 启动NameNode和DataNode:启动NameNode时,指定HA相关的配置参数,并确保DataNode也能够正常启动。 7. 启动ResourceManager和NodeManager:启动ResourceManager时,同样要指定HA相关的配置参数,并确保NodeManager也能够正常启动。 8. 进行故障切换测试:通过停止当前的Active节点,触发故障切换,验证HA环境是否正常工作。 以上是搭建Hadoop的高可用环境的基本步骤,具体的配置细节和命令可能会根据你的环境和需求有所不同。请确保在进行任何配置更改之前备份重要数据,并参考官方文档或相关资源获取更多详细信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值