Centos 7.0 下hadoop集群模式安装(以3个节点为例,master,slave1,slave2)超详细

转自:http://blog.csdn.net/mrcat520/article/details/73321283

一、目标:

构建由3PC机构成的hadoop环境,安装完成后使用HDFSMapreduceHbase等完成一些小例子。

二、硬件需求:

3Centos 7.0 系统PC机,每台PC4G内存,500G硬盘,双核CPU

三、软件需求:

每台PC机装有Centos 7.0系统,其中一台namenode,安装系统时命名master;另外两台为datanode,安装系统时分别命名为slave1slave2

四、Hadoop集群模式安装过程:

1 修改3台主机上的/etc/hosts,主机名和IP地址分配:masterslave1slave2

首先、以root身份在master主机上修改/etc/hosts文件的内容:(注意,修改IP时以3台真实联网的IP为准)




2master主机上的/etc/hosts复制到其它2台主机上(复制过程需要输入root认证密码)




3 因为Hadoop集群中所有节点主机上都以hadoop账户安装、配置、加载运行,所以首先需要以root身份在3个节点上创建一个hadoop账户,默认情况下所有主机的/home目录下创建一个hadoop的目录为hadoop账户的宿主目录。




4 设置主机间无密码信任连接:

4.1master主机上以hadoop账户身份使用ssh-keygen命令生成master主机hadoop账户密钥对。此时在master节点主机的~/.ssh目录生成密钥对id_rsadi_rsa.pub,可以通过ls命令列表查看。

4.2 再分别用ssh命令操作slave1slave2主机生成2台节点的密钥对。




4.3 将刚刚生成的密钥对中的公钥复制到master节点的~/.ssh/目录之下

4.4masterslave1slave2主机的公钥写入master主机~/.ssh目录的认证文件authorized_keys


4.5chmod命令修改认证文件authorized_keys的属性为600



4.6 将~/.ssh/authorized_keys认证文件复制到所有节点主机的~/.ssh/目录中,并进行密码连接测试。



5 hadoop目录结构的创建

5.1 chadoop目录创建:mkdir ~/chadoop

5.2 tmp目录创建:mkdir ~/chadoop/tmp

5.3 dfs目录以及其下namedata目录的创建:mkdir -p~/chadoop/dfs/name ~/chadoop/dfs/data




6 Java SDK安装与配置

6.1 Java SDK下载(wget http://202.118.69.111/res/jdk-8u121-linux-x64.tar.gz,并对其移动改名。



6.2 Java SDK环境变量的设置,将~/.bash_profile加入JAVA——HOMECLASSPATHPATH

(配置环境变量命令 vi ~/.bash_profile,配置完后需用命令生效 . ~/.bash_profile)并可用(java-version查看环境变量是否生效)

注意:配置环境变量时一定要填写到安装目录 bin 之前的目录,否则不会成功。


7 hadoop 下载与安装
7.1 hadoop 下载解压并移动



7.2 环境变量的配置
(配置环境变量命令 vi~/.bash_profile,配置完后需用命令生效 . ~/.bash_profile



7.3因为时hadoop集群模式,所以我们还要修改~/chadoop/hadoop/hadoop-2.8.0/etc/hadoop目录下的文件(core-site.xml,hdfs-site.xml, mapred-site.xml, yarn-site.xml,hadoop-env.sh, mapred-env.sh,yarn-env.sh slaves)

core-site.xml




hdfs-site.xml


mapred-site.xml



yarn-site.xml


hadoop-env.sh


mapred-env.sh


yarn-env.sh


slaves

8 master主节点克隆到slave1slave2节点

8.1克隆画像文件

scp ~/.bash_profilehadoop@slave1:~/

scp ~/.bash_profilehadoop@slave2:~/


8.2画像文件生效

ssh hadoop@slave1 . ~/.bash_profile

ssh hadoop@slave2 . ~/.bash_profile


8.3 chadoop目录克隆到slave1slave2

scp -r chadoop/hadoop@slave1:~

scp -r chadoop/hadoop@slave2:~




9master节点主机上格式化hdfs文件系统

9.1 hdfs namenode -format



9.2启动hadoop(启动前关闭所有节点主机的防火墙,开放所有端口号)

service firewalld stop(会提示输入root用户密码)

chkconfig firewalld off

(首先关闭主节点,再分别利用ssh命令进入slave1slave2关闭其余节点防火墙)


9.3 hadoop的启动

启动命令:start-all.sh

检验hadoop进程:jpsmaster节点有4ResourceManager, Jps, NameNode, SecondaryNamenodeslave1slave23NodeManager, DataNode, Jps


9.4 hadoop的停止

命令:stop-all.sh

10 hadoop的操作

10.1hdfs文件系统里面操作。首先,用-mkdir命令在hdfs中创建一个mydir目录,然后用-put命令上载文件,步骤如下:

hdfs dfs -mkdir /mydir

hdfs dfs -put ~/chadoop/hadoop/hadoop-2.8.0/etc/hadoop/*/mydir

hdfs dfs -ls /mydir


10.2利用hadoop平台上Mapreduce程序运行(统计所给例子词频)

命令:hadoop jar~/chadoop/hadoop/hadoop-2.8.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.0.jarwordcount /mydir/* /mydir/output

 



注意:hadoop jar(算法包位置)(例子输入文件夹)(例子结果输出文件夹)


10.3结果查看(hdfs dfs -cat/mydir/output/part-r-00000



11 hadoopWeb方式查询

hadoop内置了tomcat应用服务器,安装运行后可以通过浏览器浏览运行

hadoophdfs系统的观察端口是50070

应用程序的观察端口是8088



  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
安装Hadoop集群的步骤如下: 1. 首先,切换到Hadoop安装目录的`etc/hadoop`目录下,可以使用以下命令进行切换: ``` cd /develop/server/hadoop-2.7.5/etc/hadoop/ ``` 2. 在`etc/hadoop`目录下,使用文本编辑器(如vim)打开`hadoop-env.sh`文件,进行配置修改。 3. 接下来,逐一修改Hadoop的配置文件。可以使用以下命令进入Hadoop的配置文件目录: ``` cd /opt/hadoop/hadoop-2.9.2/etc/hadoop ``` 4. 在该目录下,可以找到各个配置文件,根据需要进行逐一修改。 5. 最后,将Hadoop添加到环境变量中。可以使用以下命令打开`/etc/profile`文件,并在末尾添加如下字段: ``` vim /etc/profile export PATH=$PATH:/opt/hadoop/hadoop-2.9.2/bin ``` 以上是在CentOS 7上安装Hadoop集群的一般步骤。根据具体情况,可能还需要进行其他配置和操作。 #### 引用[.reference_title] - *1* [CentOS7搭建hadoop集群](https://blog.csdn.net/LSW_JAVADP/article/details/121894681)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [centos7安装hadoop集群(亲测可用)](https://blog.csdn.net/qq_40965479/article/details/121118583)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值