1-Hadoop之伪分布搭建

实验环境:虚拟机CentOS 7 + Hadoop2.7.3 +SecureCRT

1,安装完系统后,使用SecureCRT连接虚拟机,在 / 目录下新建目录
mkdir /tools ---->用于存放软件包
mkdir /training ---->用于安装软件
注:SecureCRT连接虚拟机需要ip地址,若虚拟机下ifconfig 这个命令执行不了,是因为没有下载net-tools.x86_64
所以,执行:
yum search ifconfig
出现net-tools.x86_64 的提示后执行:yum install net-tools.x86_64
如果没出现就麻烦了,按以下操作:
( 1, cd /etc/sysconfig/network-scripts/ ,找到以ifcfg-eno开头后面有数字的文件,例如找到:ifcfg-eno16777728
然后编辑该文件,执行:vi ifcfg-eno16777728
2、1步骤打开了ifcfg-eno16777728文件,在该文件中将onboot=no 改成 yes
3、然后重启网卡,执行:systemctl restart network.service 命令即可
4、网卡重启没有问题后,在执行命令:yum search ifconfig 在提示信息中查找以net-tools.x86_64开头的安装包
5、最后执行:yum install net-tools.x86_64,进行安装即可,安装过程中会有提示,你需要在提示信息后面输入y 然后回车即可
)

2,安装java-JDK
在使用SecureCRT上传下载之前需要给服务器安装lrzsz:
yum -y install lrzsz (注:参数-y中"y"的意思是:当安装过程提示选择全部为"yes")
(*) 上传jdk-8u171-linux-x64.tar.gz到tools目录下,然后执行下面的命令进行解压安装
tar -zvxf jdk-8u171-linux-x64.tar.gz -C /training/

(*) 配置环境变量:
cd ~ 进home目录,ll -a 显示隐藏文件,vi .bash_profile,复制这些命令
vi ~/.bash_profile
在.bash_profile文件中添加如下信息:

export JAVA_HOME=/training/jdk1.8.0_171
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin;

() 让环境变量生效
source ~/.bash_profile
(
) 验证jdk是否安装成功
java -version

3、关闭防火墙(CentOS7下)
Systemctl stop firewalld.service
systemctl disable firewalld.service
另外,打开防火墙:sudo systemctl start firewalld
查看防火墙:sudo systemctl status firewalld

4、配置主机名(如何已经设置,此步骤可以不用设置)
hostnamectl --static set-hostname nick01
说明:–static 参数代表永久生效 nick01表达你希望设置的主机名

安装hadoop:
(1)上传hadoop-2.7.3.tar.gz到tools目录下,然后执行下面的命令进行解压安装
tar -zvxf hadoop-2.7.3.tar.gz -C /training/

(2)配置环境变量:
vi ~/.bash_profile
添加如下信息:

export HADOOP_HOME=/training/hadoop-2.7.3
	export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(3)让环境变量生效:
source ~/.bash_profile

(4)验证是否生效:
执行:hdfs 或者hadopo 有相关信息出现即可

Hadoop的伪分布安装
0、首页配置主机名与IP地址的映射关系
vi /etc/hosts
在文件的末尾添加类似于
192.168.215.152 nick01这样的格式ip和主机名称选择自己的即可
接下来新建一个tmp目录:mkdir /training/hadoop-2.7.3/tmp
(1)配置免密码登录:

前面修改了主机名为nick01
执行此步骤需注意,如果前面修改了主机名称,注意看此时的主机名是否已经修改,如若没有,请断开SecureCRT连接重连。

执行如下命令:
)ssh-keygen -t rsa #外加三个回车
)cd ~/.ssh/
(*)ssh-copy-id -i id_rsa.pub root@nick01

(2)进入到/training/hadoop-2.7.3/etc/hadoop目录下
cd /training/hadoop-2.7.3/etc/hadoop
需要对五个文件进行配置:
hadoop-env.sh
)hdfs-site.xml
)core-site.xml
)mapper-site.xml
)yarn-site.xml
(3)对(2)中的五个文件进行配置,配置步骤如下:
#设置运行环境
)配置hadoop-env.sh文件即可,修改该文件:
vi /training/hadoop-2.7.3/etc/hadoop/hadoop-env.sh
在hadoop-env.sh 文件中找到JAVA_HOME,并进行如下修改
export JAVA_HOME=/training/jdk1.8.0_171

#设置副本数这个文件是hdfs的配置文件,需要配置如下几项
(*)配置hdfs-site.xml文件:
vi /training/hadoop-2.7.3/etc/hadoop/hdfs-site.xml
在hdfs-site.xml文件的之间添加如下信息:

<property>
	  <name>dfs.replication</name>#block的副本数,不能超过datanode的数目
	   <value>1</value>
	</property>
	<property>
	   <name>dfs.permissions</name>
	   <value>false</value>
</property>

#对nameNode主要设置
(*)配置core-site.xml文件:
vi /training/hadoop-2.7.3/etc/hadoop/core-site.xml
在core-site.xml文件的之间添加如下信息:

<property>
	  <name>fs.defaultFS</name>		# namenode节点名
	<value>hdfs://XX:9000</value>  #namenode域名(或IP)和端口
	</property>              
	<property>
	<name>hadoop.tmp.dir</name>		#文件储存目录
	  <value>/training/hadoop-2.7.3/tmp</value>		#fs的放置位置
</property>

#配置MapReduce执行框架
(*)配置mapper-site.xml文件(这个文件事先是不存在的,需要复制一份)
(1)cp/training/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template /training/hadoop-2.7.3/etc/hadoop/mapred-site.xml
(2)vi /training/hadoop-2.7.3/etc/hadoop/mapred-site.xml
(3)在mapper-site.xml文件的之间添加如下信息:

#MapReduce 执行框架设为 Hadoop YARN.
	<property>                                 
		<name>mapreduce.framework.name</name>
	    <value>yarn</value>
	</property>

#设置ResouceManager 的地址
(*)配置yarn-site.xml文件:
vi /training/hadoop-2.7.3/etc/hadoop/yarn-site.xml
在yarn-site.xml文件的之间添加如下信息:

<property>                           
	<name>yarn.resourcemanager.hostname</name>
	<value>XX</value>
</property>
<property>
	<name>yarn.nodemanager.aux-services</name>
   	<value>mapreduce_shuffle</value>
</property>    

(4)格式化:HDFS(NameNode)
hdfs namenode -format

成功日志:
common.Storage: Storage directory /training/hadoop-2.7.3/tmp/dfs/name has been successfully formatted.

(5)启动hadoop环境
start-all.sh

6)验证:
(1)web界面进行验证
HDFS:http://nick01:50070
Yarn:http://nick01:8088
注:如果http://nick01:50070进不去可能是你的ip地址与主机名称的映射没有做好,尝试换成
http://ip地址:50070 进入查看
在这里插入图片描述
(2)执行jps命令,看看是否会有如下进程:
NameNode
DataNode
SecondaryNameNode
ReourceManager
NodeManager

(7)如果需要停止,则执行如下操作:
stop-all.sh

至此,Hadoop的伪分布搭建已完成。

参考:https://blog.csdn.net/sujiangming/article/details/88047006

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
以下是Hadoop分布式搭建的步骤: 1.安装Java环境 2.下载Hadoop压缩包并解压 3.配置Hadoop环境变量 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 5.格式化HDFS文件系统 6.启动Hadoop 具体步骤如下: 1.安装Java环境 Hadoop是基于Java开发的,因此需要先安装Java环境。可以通过以下命令安装: ```shell sudo apt-get update sudo apt-get install default-jdk ``` 2.下载Hadoop压缩包并解压 可以从Hadoop官网下载最新版本的Hadoop压缩包,也可以使用以下命令下载: ```shell wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz ``` 下载完成后,解压缩: ```shell tar -zxvf hadoop-3.3.1.tar.gz ``` 3.配置Hadoop环境变量 在.bashrc文件中添加以下内容: ```shell export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后运行以下命令使配置生效: ```shell source ~/.bashrc ``` 4.配置Hadoop的三个核心文件:core-site.xml、hdfs-site.xml、mapred-site.xml 在Hadoop的conf目录下,有三个核心文件需要配置:core-site.xml、hdfs-site.xml、mapred-site.xml。 core-site.xml的配置: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` hdfs-site.xml的配置: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/path/to/hadoop/hadoop_data/hdfs/datanode</value> </property> </configuration> ``` mapred-site.xml的配置: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 5.格式化HDFS文件系统 在Hadoop的bin目录下,运行以下命令格式化HDFS文件系统: ```shell hdfs namenode -format ``` 6.启动HadoopHadoop的sbin目录下,运行以下命令启动Hadoop: ```shell start-all.sh ``` 以上是Hadoop分布式搭建的步骤,如果需要更详细的步骤和说明,可以参考Hadoop官方文档。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值