Linux环境下搭建hadoop环境

一,关闭防火墙

查看防火墙状态

systemctl status firewalld

关闭防火墙

systemctl stop firewalld
二,安装jdk和hadoop

1,通过Xftp 6将软件包传到虚拟机上
2,解压软件包

tar -zxvf 需要解压的包名  -C /usr/local

3,配置环境

vim /etc/profile

jdk:

export JAVA_HOME=/usr/local/jdk1.8.0_201
export PATH=$PATH:$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 

hadoop:

export HADOOP_HOME=/usr/local/hadoop-2.6.0-cdh5.7.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

4,重新加载配置

source /etc/profile

5,查看安装情况
输入java、hadoop查看

-bash: java: 未找到命令

不出现上面的信息基本就是安装成功了

三,修改主机名和IP的映射关系
vim /etc/hosts

在下面加入

192.168.99.200   hadoop

虚拟机的域名 后面自己随便起

四,配置ssh免密登录
ssh-keygen -t rsa

点击数次回车

ssh-copy-id 需要配置密钥的ip

免密就配置成功了

五,配置hadoop

1,进入hadoop文件夹

cd /usr/local/hadoop-2.6.0-cdh5.7.0/etc/hadoop
2,修改配置文件

(1)第一个配置文件名:hadoop-env.sh

vim hadoop-env.sh

#第27行

export JAVA_HOME=${JAVA_HOME}
将${JAVA_HOME}改为/usr/local/jdk1.8.0_201

把JAVA_HOME写成绝对路径,这么做是为了防止程序获取不到jdk的路径造成不必要的麻烦
(2)>第二个配置文件名:core-site.xml

 vim core-site.xml

<configuration></configuration>中加入下面的信息

<!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 -->
<property>
	<name>fs.defaultFS</name>
	<value>hdfs://hadoop:9000</value>
</property>
<!-- 指定hadoop运行时产生文件的存储目录 -->
<property>
	<name>hadoop.tmp.dir</name>
	<value>/usr/local/hadoop-2.6.0-cdh5.7.0/tmp</value>
</property>

(3)>第三个配置文件:hdfs-site.xml

在```<configuration></configuration>```中加入下面的信息
<!-- 指定HDFS副本的数量 -->
<property>
	<name>dfs.replication</name>
	<value>1</value>
</property>

3,格式化namenode

hadoop namenode -format

出现successfully 说明格式化成功

4,启动hadoop

start-dfs.sh

5,输入jps指令显示java程序的进程

启动成功

六,通过浏览器访问

在地址栏输入
192.168.99.200:50070
ip是自己虚拟机的ip

访问成功
搭建结束

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值