Linux集群Hadoop2.5.1完全分布式安装

一、实践环境

Ubuntu14.04 + JDK1.8.0_25 + Hadoop2.5.1

一共三台linux机器(virtualbox虚拟机,桥接网络配置静态ip),信息如下:

机器名

IP

作用

master

 <ip>

Namenode, master

slave1

 <ip> 

Datanode, slave

slave2

 <ip> 

Datanode, slave

二、安装配置linux系统

1. 在三台机器上安装好ubuntu系统。

2. 更新一下系统软件, sudoapt-get update。

3. 修改机器名, sudo gedit/etc/hostname:


每台机器都要修改,对于slave机器,修改名称为slave1, slave2….

4. 修改hosts文件,sudo gedit/etc/hosts:


每台机器上的hosts文件内容都相同。

5. 在每台机器上新建一个名为jsj的用户:

sudo  adduser jsj

更改jsj文件夹的权限:

sudo chown –R  jsj:jsj  jsj

三、安装配置SSH

1. 安装ssh服务:sudoapt-get install ssh

2. 在每台机器的/home/jsj目录下都用jsj用户新建一个.ssh/目录

3. 在每台机器上都生成ssh密钥: ssh  –keygen –t  rsa

4. 在master主机上,把id_rsa.pub添加到authorized_keys文件中:

jsj@master:/home/jsj/.ssh/$catid_rsa.pub >> authorized_keys

5. 在master主机上,将slave1,slave2的id_rsa.pub添加到authorized_keys文件中:

ssh  slave1 cat /home/jsj/.ssh/id_rsa.pub >>  authorized_keys

ssh  slave2 cat /home/jsj/.ssh/id_rsa.pub >>  authorized_keys

6. 在master上通过scp命令将authorized_keys复制到slave1,slave2机器上:

scp  authorized_keys  jsj@slave1:/home/jsj/.ssh/

scp  authorized_keys  jsj@slave2:/home/jsj/.ssh/

7. 验证是否成功,可以通过sshlocalhost, ssh slave1, ssh slave2 验证是否配置成功。

四、安装JDK

1. 下载jdk-8u25-linux-x64.gz

2. 在/usr/lib目录下新建文件夹jvm/,将jdk压缩包解压到此目录下。

3. 配置环境变量,修改/etc/profile文件:


4. 使设置生效:$source  /etc/profile

 

五、Hadoop 2.5.1安装配置

1. 下载hadoop-2.5.1.tar.gz,在master机器上修改好配置文件,然后scp同步到其他slave上即可。

2. 将hadoop-2.5.1.tar.gz解压到/home/jsj/目录下。

3. 配置环境变量 sudo gedit/etc/profile


4. 修改/home/jsj/Hadoop-2.5.1/etc/hadoop目录下的配置文件

修改hadoop-env.sh文件,修改JAVA_HOME的值如下:


5. 修改yarn-env.sh文件,修改JAVA_HOME的值如下:


6. 修改文件slaves,这个文件里面保存所有的slave节点:


7. 修改core-site.xml文件:


8. 修改hdfs-site.xml文件:


9. 修改mapred-site.xml文件:


10. 修改yarn-site.xml文件:


 

11. 复制到其他节点

将master节点上配好的hadoop复制到其他节点,使用命令:

scp –r  /home/jsj/hadoop-2.5.1  jsj@slave1:/home/jsj/hadoop-2.5.1

scp –r  /home/jsj/hadoop-2.5.1  jsj@slave2:/home/jsj/hadoop-2.5.1

 

12. 运行hadoop

①在master机器上的/home/jsj/hadoop-2.5.1 目录下执行命令格式化namenode:

bin/hdfs  namenode  -format

②然后执行 sbin/start-dfs.sh 启动hdfs,执行 sbin/start-yarn.sh 启动yarn.

③最后用命令jps查看hadoop的运行状态。




  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要在Linux安装Hadoop完全分布式,你可以按照以下步骤进行操作: 1. 首先,确保你已经安装了Java Development Kit(JDK)。Hadoop依赖于Java来运行。你可以通过在终端中运行以下命令来检查是否安装了JDK: ``` java -version ``` 如果没有安装,请按照适合你的Linux发行版的说明进行安装。 2. 下载Hadoop的最新版本。你可以从Hadoop的官方网站(https://hadoop.apache.org/)上获取最新版本的下载链接。使用wget或curl命令下载Hadoop二进制文件。例如: ``` wget https://downloads.apache.org/hadoop/common/hadoop-X.X.X/hadoop-X.X.X.tar.gz ``` 3. 解压下载的Hadoop二进制文件。可以使用以下命令: ``` tar xzf hadoop-X.X.X.tar.gz ``` 4. 将解压后的Hadoop文件夹移动到合适的位置。例如,可以将其移动到`/usr/local`目录下: ``` sudo mv hadoop-X.X.X /usr/local/hadoop ``` 5. 配置环境变量。编辑你的`.bashrc`文件(或者你正在使用的shell对应的配置文件),并将以下内容添加到文件末尾(根据你的Hadoop路径进行调整): ``` export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 6. 创建Hadoop配置文件。进入Hadoop安装目录并创建`etc/hadoop`文件夹: ``` cd /usr/local/hadoop sudo mkdir etc/hadoop ``` 7. 配置Hadoop集群。在`etc/hadoop`目录下创建以下文件并进行相应配置: - core-site.xml:包含Hadoop核心配置。例如,设置Hadoop的默认文件系统和HDFS的URL。 - hdfs-site.xml:包含HDFS配置。例如,设置数据副本数量和块大小。 - mapred-site.xml:包含MapReduce配置。例如,设置任务调度器类型。 - yarn-site.xml:包含YARN配置。例如,设置资源管理器和节点管理器。 8. 格式化HDFS。运行以下命令来初始化HDFS: ``` hdfs namenode -format ``` 9. 启动Hadoop集群。使用以下命令启动Hadoop: ``` start-dfs.sh start-yarn.sh ``` 10. 验证Hadoop安装是否成功。打开浏览器,访问http://localhost:9870/,你应该能够看到Hadoop集群的Web界面。 这些步骤将帮助你在Linux安装Hadoop完全分布式。请注意,还有其他更详细的配置和调优步骤,这里只提供了基本过程。你可以参考官方文档或其他教程来进行进一步学习和调整。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值