Hadoop+Hive部署安装配置

最近又用到Hive,重新记录一下安装方式,搭建了Hadoop+Hive,在运行Hive之前要首先搭建好Hadoop,关于Hadoop的搭建有三种模式,在以下的介绍中,我主要的采用的是Hadoop的伪分布安装模式。写下来给各位分享。 
准备工作: 
这里写图片描述 
以上所有的下载的安装包和解压后文件均在/usr/local/hadoop目录

这里写图片描述

1、分别ssh到每台服务器上,在root用户下修改hostname 
su root 
vim /etc/sysconfig/network 
这里写图片描述 
如上图所示,HOSTNAME=master 
vim /etc/hosts 
这里写图片描述 
如上图所示,将localhost.localmain处改成master,遮挡处是IP地址,囧,然后重启服务器 
reboot 
在master服务器添加每台主机名字和地址的映射 
vim /etc/hosts 
这里写图片描述 
然后检查ping连接 
ping slave1 
同理,在其他三台服务器上修改主机名和添加地址映射。

2、分别在每台服务器上建立相应的文件夹,并修改文件夹权限 
mkdir /usr/local/hadoop 
chmod 777 –R /usr/local/hadoop

3、安装jdk,Hadoop使用环境必须有jdk,每台服务器上都必须安装 
首先检查有无jdk:Java -version 
cd /usr/local/hadoop 
http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html 
将下载的安装包上传到master上的/usr/local/hadoop文件夹下 
tar-zxvf jdk-7u79-Linux-x64.tar.gz 
配置jdk的环境变量: 
vim /etc/profile 
这里写图片描述 
使其立即生效 source /etc/profile 
检查是否安装成功:java –version 
这里写图片描述

4、hadoop 用户准备: 
添加用户:useradd hadoop 
用户密码:passwd hadoop 
授权给hadoop: chown -R hadoop:hadoop /usr/local/hadoop

5、SSH无密码登录配置 
在Hadoop中,nameNode是通过SSH来启动和停止各个DataNode上的各种守护进程,这就要在节点之间执行指令的时候是不需要输入密码的形式,故需要配置SSH运用无密码公钥认证的形式。 
切换到hadoop用户下:以下是配置master SSH无密码登录slave1 
su hadoop 
ssh-keygen –t rsa –P ‘’ 
三次Enter 
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
chmod 600 ~/.ssh/authorized_keys 
su root 
vim /etc/ssh/sshd_config 
这里写图片描述 
service sshd restart 
测试本地无密码连接是否成功: 
这里写图片描述 
然后将id_rsa.pub分发到slave1服务器上: 
scp ~/.ssh/id_rsa.pub hadoop@slave1:~/ 
在slave1主机上,在hadoop用户下: 
su hadoop 
mkdir ~/.ssh(如果没有,就要新建.ssh文件夹) 
chmod 700 ~/.ssh 
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 
chmod 600 ~/.ssh/authorized_keys 
切换到root用户下: 
vim /etc/sys 
这里写图片描述 
同上: vim /etc/ssh/sshd_config 
service sshd restart 
回到master主机上测试SSH无密码连接slave1: 
这里写图片描述 
同上,分别配置master SSH无密码连接slave2,slave3。 
以上的配置过程,只能实现master 分别SSH无密码连接slave1,slave2,slave3,而无法实现slave1,slave2,slave3 SSH 无密码连接master。 
若要实现slave1,slave2,slave3 SSH无密码连接master,以slave1 SSH无密码连接master为例:同理,先在slave1主机上hadoop用户下,生成id_rsa.pub,再拷贝到master主机上,并追加到authorized_keys.最后配置成功如下图: 
这里写图片描述

6、安装Hadoop(集群中的所有机器都要安装Hadoop) 
cd /usr/local/hadoop 
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz 
tar –zxvf hadoop-1.2.1.tar.gz 
修改环境变量: 
su root 
vim /etc/profile 
这里写图片描述 
使之立即生效: 
source /etc/profile 
修改hadoop conf文件夹下的hadoop-env.sh 
cd /usr/local/hadoop/hadoop-1.2.1/conf 
vim hadoop-env.sh 
这里写图片描述
将上图中红框下的文字取消注释; 
修改conf下的hdfs-site.xml文件 
这里写图片描述 
修改conf下core-site.xml文件: 
这里写图片描述 
修改conf下mapred-site.xml: 
这里写图片描述 
注意:四台服务器上都要进行相应的配置。

7、master上进行验证: 
格式化Hadoop: 
cd /usr/local/hadoop/ hadoop-1.2.1/bin 
./hadoop namenode –format 
./start-all.sh 
jps

这里写图片描述

(二)Hive安装(每个节点上都要安装Hive) 
这里选用MySQL作为元数据库,将mySql和Hive安装在master服务器上 
统一给放到/usr/local/hadoop 
1、下载安装文件,并解压: 
cd /usr/local/hadoop 
wget http://mirrors.cnnic.cn/apache/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz 
tar -zxvf apache-hive-1.2.1-bin.tar.gz

2、配置环境变量 
在root用户下: 
su root 
vim /etc/profile 
这里写图片描述 
生效:source /etc/profile 
chown –R hadoop:hadoop /usr/local/hadoop

3、安装mySql 
yum install mysql-server 
安装完成后; 
service mysqld start 
mysql>mysql; 
如果报错: 
mysqladmin: connect to server at ‘localhost’ failed 
error: ‘Access denied for user ‘root’@’localhost’ (using password: YES)’ 
解决办法: 
service mysqld stop 
mysqld_safe –skip-grant-tables &; 
mysql –uroot –p

use mysql; 
update user set password=PASSWORD(“hadoop”)where user=”root”; 
flush privileges; 
quit 
service mysqld restart 
mysql -uroot –phadoop 
或者mysql –uroot –hmaster –phadoop 
如果可以登录成功,则表示MySQL数据库已经安装成功。 
创建Hive用户: 
mysql>CREATE USER ‘hive’ IDENTIFIED BY ‘hive’; 
mysql>GRANT ALL PRIVILEGES ON . TO ‘hive’@’master’ WITH GRANT OPTION; 
mysql> GRANT ALL PRIVILEGES ON . TO ‘hive’@’master’ IDENTIFIED BY ‘hive’; 
mysql>flush privileges; 
创建Hive数据库: 
mysql>create database hive;

4、修改Hive配置文件: 
cd /apache-hive-1.2.1-bin/conf 
cp hive-default.xml.template hive-default.xml 
vi hive-site.xml 
这里写图片描述

5、拷贝JDBC驱动包 
将mySql的JDBC驱动包复制到Hive的lib目录下 
cp mysql-connector-java.bin.jar /usr/local/hadoop/ apache-hive-1.2.1-bin /lib

6、分发Hive分别到slave1,slave2,slave3上 
scp -r /usr/local/hadoop/apache-hive-1.2.1-bin slave1:/usr/local/hadoop/ 
scp -r /usr/local/hadoop/apache-hive-1.2.1-bin slave2:/usr/local/hadoop/ 
scp -r /usr/local/hadoop/apache-hive-1.2.1-bin slave3:/usr/local/hadoop/ 
配置环境变量如同master。

7、测试Hive 
进入到Hive的安装目录,命令行: 
cd /usr/local/hadoop/apache-hive-1.2.1-bin/bin 
hive 
hive>show tables; 
正常显示,即是安装配置成功。 
注意:在测试Hive之前要启动hadoop 
若要进行远程服务启动则如下: 
cd /usr/local/hadoop/apache-hive-1.2.1-bin/bin 
nohup hive –-service hiveserver2 
静止不动是正常的,在后台已经启动相关服务。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hadoop是一个开源的分布式计算框架,可用于处理大数据集并提供高可靠性,高可用性和高性能。要进行详细的安装部署,需要运行以下步骤: 1. 安装Java:Hadoop基于Java编写,因此需要安装适当的Java版本。 2. 安装Hadoop:以二进制文件的形式下载Hadoop,并将其解压缩到目标位置。编辑Hadoop配置文件,并设置必要的参数,例如本地文件系统和Hadoop所依赖的其他组件。 3. 部署HDFS:使用bin/hdfs script启动HDFS守护进程并格式化NameNode。配置HDFS,并在数据节点上创建数据目录。 4. 部署YARN:使用bin/yarn script启动YARN守护进程,并在ResourceManager节点上运行MR程序的ApplicationMaster服务。重新配置YARN,并设置资源管理器和节点管理器。 5. 安装Spark:以二进制文件的形式下载Spark,并将其解压缩到目标位置。编辑Spark配置文件,并设置必要的参数,例如运行模式,内存设置和调试选项。 6. 安装Hive:以二进制文件的形式下载Hive,并按照说明进行安装配置Hive,并设置Metastore和HiveServer2。 7. 安装HBase:以二进制文件的形式下载HBase,并按照说明进行安装配置HBase,并设置区域服务器和HBase主服务器。 8. 安装Oozie:以二进制文件的形式下载Oozie,并按照说明进行安装。编辑Oozie配置文件,并设置必要的参数,例如数据库连接,属性和内存设置。 9. 安装Kafka:以二进制文件的形式下载Kafka,并按照说明进行安装配置Kafka,并设置必要的参数,例如Zookeeper连接,日志存储位置和日志大小限制。 10. 安装Flume:以二进制文件的形式下载Flume,并按照说明进行安装配置Flume,并设置必要的参数,例如Flume代理,事件类型和目标。 11. 安装Flink:以二进制文件的形式下载Flink,并按照说明进行安装配置Flink,并设置必要的参数,例如集群模式,任务管理器,计算管道和作业提交方式。 12. 安装ES:以二进制文件的形式下载Elasticsearch,并按照说明进行安装配置Elasticsearch,并设置必要的参数,例如节点类型,索引设置和查询配置。 13. 安装Redash:以二进制文件的形式下载Redash,并按照说明进行安装配置Redash并设置必要的参数,例如数据库连接,权限和查询模式。 以上提到的大数据技术是开源的,所以可以在官网上找到相关二进制文件和详细的安装部署指南。也可以使用一些自动化的部署工具,如Puppet和Ansible来简化整个过程。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值