Hadoop安装以及环境配置

Hadoop安装以及环境配置


Hadoop下载地址: Hadoop下载地址链接

1.创建一个纯净的虚拟机,安装好jdk和mysql

2.解压hadoop.tar.gz(在根目录下创建一个software文件夹,把安装包都放在里面)

[root@localhost /]# mkdir software
[root@hadoop software]#tar -zxvf hadoop-2.6.0-cdh5.14.2.tar.gz -C/opt
#改名
[root@localhost opt]# mv hadoop-2.6.0-cdh5.14.2 hadoop

3.安装hadoop并配置环境

(1)设置主机名:

hostnamectl set-hostname hadoop002
vi /etc/hosts  
     192.168.36.33 hadoop002

在这里插入图片描述
(2)添加互信

注:ssh是secure shell的缩写,是创建在应用层和传输层基础上的安全协议,通过使用ssh,可以把所传输的数据进行加密,rsa为秘钥类型

[root@localhost opt]# ssh-keygen -t rsa  
在root/.ssh/目录下生成一对秘钥id_rsa和id_rsa.pub;rsa为默认秘钥类型,也可生成一对dsa私钥文件
[root@localhost opt]# cat ~/.ssh/id_rsa.pub  > ~/.ssh/authorized_keys
将公钥考到对方机器的用户目录下
[root@localhost opt]#ssh hadoop001

在这里插入图片描述
(3)配置全局环境变量

:将hadoop四个模块hadoop common,hadoop distributed file system(HDFS),hadoop yarn,hadoop mapreduce的环境变量都添加上,以及native-hadoop的环境变量

vi /etc/profile
在path上加一下配置
  export HADOOP_HOME=/opt/hadoop
  export HADOOP_MAPRED_HOME=$HADOOP_HOME
  export HADOOP_COMMON_HOME=$HADOOP_HOME
  export HADOOP_HDFS_HOME=$HADOOP_HOME
  export YARN_HOME=$HADOOP_HOME
  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
  export HADOOP_INSTALL=$HADOOP_HOME
并在path后面加上$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:
在最后一个$PATH之前加
使其环境变量生效:
 [root@localhost opt]# source /etc/profile
检验是否安装成功
hadoop version

(4)配置hadoop 在**/etc/hadoop**目录下的文件

1) hadoop-env.sh

配置一下java的地址
#export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/opt/java8

2)core-site.xml

<configuration>
<!-- 配置NameNode的主机名和端口号-->
  <property>
     <name>fs.defaultFS</name>
     <value>hdfs://192.168.36.33:9000</value>
  </property>
<!-- 指定使用hadoop产生文件的存放目录-->
  <property><
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值