centos下安装hadoop

一.环境准备
1.centos7
2. jdk: 1.8.0_241
3.Hadoop: 1.8.0_241
二.Hadoop安装
2.1.jdk下载及配置
下载链接:https://download.oracle.com/otn/java/jdk/8u241-b07/1f5b5a70bf22433b84d0e960903adac8/jdk-8u241-linux-x64.tar.gz
下载完成后在下载目录执行命令:

tar -zxf jdk-8u241-linux-x64.tar.gz 
mv jdk1.8.0_241  /usr/local/java

2.2hadoop安装
下载链接:http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz
创建hadoop账号
创建hadoop用户: useradd -m hadoop -s /bin/bash
设置hadoop密码 : echo ‘QWEASD123’–stdin Hadoop(桌面交互设置)
使用visudo 添加hadoop的sudo权限
切换用户: su - hadoop

tar -zxf hadoop-2.10.0.tar.gz -C /home/hadoop/

2.3配置环境变量

Cat <<EOF>> /etc/profile
 export JAVA_HOME=/usr/local/java
 export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
 export JRE_HOME=$JAVA_HOME/jre
 export PATH=$JAVA_HOME/bin:$PATH
 export HADOOP_HOME=/home/hadoop/hadoop-2.10.0/
 export PATH=$PATH:$HADOOP_HOME/bin
 EOF

三.hadoop配置与启动
3.1hadoop配置
注:本例中Hadoop解压位置为/home/hadoop/hadoop-2.10.0/
修改/home/hadoop/hadoop-2.10.0/etc/hadoop/core-site.xml
在下一行新加内容:

<property>
 <name>fs.defaultFS</name>
 <value>hdfs://192.168.1.129:9000</value>
 </property>
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/hadoop-2.10.0/tmp</value>
  </property>
 <property>
 <name>hadoop.native.lib</name>
 <value>false</value>
 <description>Should native hadoop libraries, if present, be used. 
 </description>
 </property>

手动创建tmp目录mkdir /home/hadoop/hadoop-2.10.0/tmp
注:配置文件中出现的IP地址均为自己主机的ip地址
修改/home/hadoop/hadoop-2.10.0/etc/hadoop/hadoop-env.sh
在25行修改JAVA_HOME为/usr/local/java

在这里插入图片描述
修改/home/hadoop/hadoop-2.10.0/etc/hadoop/hdfs-site.xml
在下一行添加内容:

<configuration>
  <property>
 <name>dfs.replication</name>
  <value>1</value>
    </property>
  <property>
    <name>dfs.secondary.http.address</name>
  <value>192.168.110.129:50090</value>
 </property>
  </configuration>

修改/home/hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml
在下一行添加内容:

<configuration>
 <property>
   <name>mapreduce.framework.name</name>
  <value>yarn</value>
  </property>

修改/home/hadoop/hadoop-2.10.0/etc/hadoop/yarn-site.xml
在下一行添加内容:

 <property>
   <name>yarn.resourcemanager.hostname</name>
  <value>192.168.110.129</value>
  </property>
   <property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
 </property>

配置修改完成,进行初始化,执行命令:

./hadoop namenode -format

3.2hadoop启动
执行命令:/home/hadoop/hadoop-2.10.0/sbin/start-all.sh
四.运行测试
执行命令

yarn jar /home/hadoop/hadoop-2.10.0/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient- 
 2.10.0.jar mrbench  -numRuns 50

运行结果可以使用浏览器浏览 http://ip:8088/cluster

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是在 CentOS安装 Hadoop 的步骤: 1. 安装 Java 首先,您需要安装 Java。在 CentOS 上,您可以使用以下命令安装 OpenJDK: ``` sudo yum install java-1.8.0-openjdk-devel ``` 2. 下载和解压 Hadoop 您可以从 Hadoop 官方网站下载最新的 Hadoop 发行版。下载完成后,您可以使用以下命令解压缩文件: ``` tar -zxvf hadoop-x.x.x.tar.gz ``` 3. 配置 Hadoop 进入 Hadoop 目录,编辑 core-site.xml 文件: ``` cd hadoop-x.x.x cd etc/hadoop sudo nano core-site.xml ``` 在文件中添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 然后编辑 hdfs-site.xml 文件: ``` sudo nano hdfs-site.xml ``` 在文件中添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///home/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///home/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` 将 "/home/hadoop/hadoop_data" 替换为您要用于存储 Hadoop 数据的实际目录。 最后,编辑 mapred-site.xml 文件: ``` sudo cp mapred-site.xml.template mapred-site.xml sudo nano mapred-site.xml ``` 在文件中添加以下配置: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 4. 配置环境变量 打开 .bashrc 文件: ``` nano ~/.bashrc ``` 在文件末尾添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 将 "/path/to/hadoop" 替换为实际的 Hadoop 安装路径。 5. 启动 Hadoop 使用以下命令格式启动 Hadoop: ``` start-dfs.sh start-yarn.sh ``` 这将启动 HDFS 和 YARN。 6. 检查 Hadoop 是否正常运行 您可以使用以下命令检查 Hadoop 是否正在运行: ``` jps ``` 如果一切正常,您应该看到以下进程: ``` DataNode NameNode ResourceManager SecondaryNameNode NodeManager ``` 这就是在 CentOS安装 Hadoop 的基本步骤。请注意,在实际生产环境中,您需要进行更多的配置和安全性设置。 ### 回答2: CentOS系统是一种广泛使用的Linux发行版,Hadoop是一个开源分布式计算平台。下面是在CentOS系统上安装Hadoop的步骤: 1. 在CentOS系统上安装Java Development Kit(JDK)。Hadoop依赖于Java,因此需要先安装JDK。可以通过命令`sudo yum install java-devel`进行安装。 2. 下载Hadoop的压缩包。可以从Hadoop官方网站(https://hadoop.apache.org/releases.html)下载最新版本的Hadoop。 3. 解压Hadoop压缩包。可以使用命令`tar -zxvf hadoop-<version>.tar.gz`来解压,其中`<version>`是下载Hadoop版本号。 4. 配置Hadoop环境变量。打开文件`~/.bashrc`,在末尾添加以下内容: ``` # Hadoop export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin ``` 这里将`/path/to/hadoop`替换为解压后Hadoop的目录路径。 5. 配置Hadoop文件。进入Hadoop的具体目录,打开文件`etc/hadoop/hadoop-env.sh`,找到并修改以下行: ``` export JAVA_HOME=/usr/lib/jvm/java-<version>-openjdk ``` 将上述`<version>`替换为安装的Java版本号。 6. 配置Hadoop集群。在`etc/hadoop`目录中找到并编辑文件`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`,根据需求进行对应的配置。 7. 格式化Hadoop文件系统。运行命令`hdfs namenode -format`来格式化Hadoop文件系统。 8. 启动Hadoop集群。运行命令`start-dfs.sh`来启动Hadoop的分布式文件系统(HDFS),然后运行命令`start-yarn.sh`来启动YARN资源管理器。 完成上述步骤后,Hadoop将成功安装CentOS系统上。可以通过访问相关的Web界面来管理和监控Hadoop集群。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值