hadoop 2.7.3 mysql_搭建Hadoop2.7.3+Hive2.1.1及MySQL(配置Hadoop)(一)

一、准备工作: 操作系统:Linux(CentOS 7.0) 下载 Java(jdk-8u111-linux-x64.rpm) Hive2.1.1(apache-hive-2.1.1-bin.tar.gz jdk-8u111-linux-x64.rpm) Hadoop2.7.3(hadoop-2.7.3.tar.gz) 下载Java(JDK) 点击打开链接 下载安装在官网可下载最新版(Hadoop/

一、准备工作:

操作系统:Linux(CentOS 7.0)

下载

Java(jdk-8u111-linux-x64.rpm)

Hive2.1.1(apache-hive-2.1.1-bin.tar.gz  jdk-8u111-linux-x64.rpm)

Hadoop2.7.3(hadoop-2.7.3.tar.gz)

下载Java(JDK)

点击打开链接

下载安装在官网可下载最新版(Hadoop/Hive)

点击打开链接

把下载文件存放在CentOS桌面文件(Hadoop)

二、安装配置

1、    安装 java (JDK)

[root@localhost Hahoop]# yuminstall -y jdk-8u111-linux-x64.rpm查看安装后的版本

[root@localhost Hahoop]# java -version

java version "1.8.0_111"

Java(TM) SE Runtime Environment (build1.8.0_111-b14)

Java HotSpot(TM) 64-Bit Server VM(build 25.111-b14, mixed mode)

2、    解压hadoop和hive程序[root@localhost Hahoop]# tar -xzfhadoop-2.7.3.tar.gz

[root@localhost Hahoop]# tar -xzfapache-hive-2.1.1-bin.tar.gz查看解压文件夹

[root@localhost Hahoop]# lsapache-hive-2.1.1-bin         hadoop-2.7.3         jdk-8u111-linux-x64.rpm

apache-hive-2.1.1-bin.tar.gz  hadoop-2.7.3.tar.gz

3、    移动解压文件并重命名hive/Hadoop

[root@localhost Hahoop]# mvhadoop-2.7.3 /usr/Hadoop

[root@localhost Hahoop]# mvapache-hive-2.1.1-bin /usr/hive

4、    配置环境变量(HADOOP)

[root@localhost hadoop]# vim~/.bashrc

添加:

# set hadoop/hive/jdk(java) path

export HADOOP_HOME=/usr/hadoop

export HIVE_HOME=/usr/hive

export JAVA_HOME=/usr/java/jdk1.8.0_111

export PATH="$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HIVE_HOME/bin:$JAVA_HOME/bin"

生效:

[root@localhost hadoop]# source~/.bashrc

5、    创建目录Hadoop

[root@localhost hadoop]# cd /usr/Hadoop

[root@localhost hadoop]# mkdir tmp

[root@localhost hadoop]# mkdir hdfs

[root@localhost hadoop]# mkdir hdfs/data

[root@localhost hadoop]# mkdir hdfs/name

6、    设置配置文件5.0、指定文件所在路径

[root@localhost hadoop]# cd/usr/hadoop/etc/Hadoop

5.1、配置hadoop-env.sh][root@localhost hadoop]# vimhadoop-env.sh--添加

#export JAVA_HOME=${JAVA_HOME}

export JAVA_HOME=/usr/java/jdk1.8.0_111

5.2、配置yarn-env.sh

[root@localhost hadoop]# vim yarn-env.sh

添加

# export JAVA_HOME=/home/y/libexec/jdk1.6.0/

exportJAVA_HOME=/usr/java/jdk1.8.0_111

5.3、配置core-site.xml

[root@localhost hadoop]# vimcore-site.xml

fs.default.name

hdfs://localhost:9000

HSDF的URL,文件系统:namenode标识:端口号

hadoop.tmp.dir

/usr/hadoop/tmp

本地hadoop临时文件夹

5.4、配置hdfs-site.xml

[root@localhost hadoop]# vim hdfs-site.xml

dfs.name.dir

/usr/hadoop/hdfs/name

namenode上存储hdfs名字空间元数据

dfs.data.dir

/usr/hadoop/hdfs/data

datanode上数据块的物理存储位置

dfs.replication

1

副本个数,默认3应该小于datanode机器数量

5.5、配置yarn-site.xml

[root@localhost hadoop]# vim yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.resourcemanager.webapp.address

localhost:8099

5.6、配置mapred-site.xml(启用服务时没用到,可不用配置)

[root@localhost hadoop]# mvmapred-site.xml.template mapred-site.xml

[root@localhost hadoop]# vim mapred-site.xml

mapreduce.framework.name

yarn

6、配置ssh无密码(1.产生RSA密钥对;2.群集内共享密钥)启动hadoop服务(启动dfs/yarn时的无需密码.注:如果home目录没有通过NFS共享需要其他方法共享密钥(ssh-copy-id,复制到远程主机调用格式:ssh-copy-id -i ~/.ssh/id_rsa.pub  root@192.168.1.2)

[root@localhost hive]# ssh-keygen -t rsa-p'' -f ~/.ssh/id_rsa

[root@localhost hive]# cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys

7、启动Hadoop7.1、格式化namenode

[root@localhost hadoop]# bin/hdfs namenode-format

7.2、启动hdfs(按提示输入yes和账号密码,配置了(步骤6) ssh时跳过输入密码步骤)

[root@localhost hadoop]# sbin/start-dfs.sh

7.3、启动yarn(按提示输入yes和账号密码,配置了(步骤6) ssh时跳过输入密码步骤)

[root@localhost hadoop]# sbin/start-yarn.sh

7.4、查看进程:

[root@localhost hadoop]# jps

26161 DataNode

26021 NameNode

26344 SecondaryNameNode

26890 Jps

26492 ResourceManager

26767 NodeManager

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值