Centos 7中的HaDoop伪分布式安装

本文详细介绍了在Centos 7中如何进行Hadoop的伪分布式安装,包括添加root用户、更改主机名、配置IP映射、安装jdk、安装hadoop、配置环境变量以及相关配置文件,最后启动并测试Hadoop进程。

简介:
windows 7中安装VMware,VMware中安装Centos 7,Centos 7中安装伪分布式HaDoop
请提前下载jdk和hadoop

至于如何在windows中安装VMware以及在VMware中Centos 7,

请参照博主的博客:

Windows7下用VMware安装Centos7

1. 安装前的重要事情

(1)添加root用户
su———使用su命令进入root(需要roo密码)
vi /etc/sudoers———–使用此命令修改文件sudoers中的内容

[关于vi命令的使用方法,如果不会,请参照本博主的博客]
linux系统下修改文件命令vi的使用

找到如下图所示的内容,添加一行,其中红色方格内为你的root用户名
这里写图片描述

### CentOS 7 Hadoop伪分布式安装教程 在CentOS 7安装Hadoop伪分布式环境,需要完成以下几个关键步骤:配置Java开发环境、下载并解压Hadoop安装包、配置Hadoop相关文件以及启动Hadoop服务。以下是详细的安装步骤: #### 1. 配置Java开发环境 Hadoop依赖于Java运行时环境(JRE)或Java开发工具包(JDK)。首先需要安装JDK,并确保其正确配置。 - 使用以下命令安装OpenJDK: ```bash sudo yum install java-1.8.0-openjdk-devel ``` - 检查Java是否安装成功: ```bash java -version ``` 如果输出显示Java版本信息,则说明安装成功[^3]。 - 配置环境变量,在`/etc/profile`文件中添加以下内容: ```bash export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk export PATH=$JAVA_HOME/bin:$PATH ``` 使配置生效: ```bash source /etc/profile ``` #### 2. 下载并解压Hadoop安装包 从Apache官网下载Hadoop安装包,并将其解压到指定目录。 - 创建安装目录: ```bash mkdir -p /opt/soft cd /opt/soft ``` - 下载Hadoop安装包(以Hadoop 2.7.7为例): ```bash wget https://archive.apache.org/dist/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz ``` - 解压安装包: ```bash tar -zxvf hadoop-2.7.7.tar.gz -C ../app/ ``` - 重命名解压后的文件夹以便后续操作: ```bash cd ../app mv hadoop-2.7.7 hadoop ``` #### 3. 配置Hadoop环境变量 为了方便使用Hadoop命令,需要将其加入系统环境变量。 - 编辑`/etc/profile`文件,添加以下内容: ```bash export HADOOP_HOME=/opt/app/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` - 使配置生效: ```bash source /etc/profile ``` #### 4. 修改Hadoop配置文件 Hadoop伪分布式模式需要修改几个重要的配置文件,包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-site.xml`。 - 进入Hadoop配置目录: ```bash cd /opt/app/hadoop/etc/hadoop/ ``` - **core-site.xml**:配置HDFS的默认存储路径。 ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` - **hdfs-site.xml**:配置HDFS的副本数量。 ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` - **mapred-site.xml**:配置MapReduce框架为YARN。 ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` - **yarn-site.xml**:配置YARN的相关参数。 ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration> ``` #### 5. 格式化HDFS 在启动Hadoop之前,需要对HDFS进行格式化。 - 执行以下命令: ```bash hdfs namenode -format ``` #### 6. 启动Hadoop服务 启动Hadoop伪分布式环境的服务。 - 启动HDFS: ```bash start-dfs.sh ``` - 启动YARN: ```bash start-yarn.sh ``` - 验证服务是否启动成功: ```bash jps ``` 应该能看到以下进程:`NameNode`、`DataNode`、`ResourceManager` 和 `NodeManager`[^2]。 #### 7. 测试Hadoop伪分布式环境 可以通过执行一个简单的WordCount程序来测试Hadoop伪分布式环境是否正常工作。 - 创建输入文件并上传到HDFS: ```bash echo "Hello Hadoop" > input.txt hdfs dfs -mkdir /input hdfs dfs -put input.txt /input ``` - 执行WordCount示例程序: ```bash hadoop jar /opt/app/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /input /output ``` - 查看输出结果: ```bash hdfs dfs -cat /output/part-r-00000 ``` --- ### 注意事项 - 确保防火墙不会阻止Hadoop服务的端口(如9000、50070等)。 - 如果遇到权限问题,可以尝试将Hadoop目录的所有权赋予当前用户: ```bash chown -R $USER:$USER /opt/app/hadoop ``` ---
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一叶_障目

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值