hive的安装与启动

hive的安装与启动

1.安装mysql和hadoop
前提:首先你在安装hive之前你要事先安装好hadoop和mysql
因为hive的数据是存储在hdfs中的在使用hive之前也要先开启mysql服务
就自己前安装的mysql,但是要注意,开启远程连接权限
1)

[root@doit01 ~]# service mysqld  start 
	   Starting mysqld:                                           [  OK  ]

		mysql -uroot  -proot

		mysql > grant all privileges on *.* to 'root'@'%' identified by '密码' with grant option;
		mysql > flush privileges;
2) 授权完成后,测试一下是否成功:在windows上用Navicat连接一下看是否能成功!																												
	mysql启动正常  开启远程连接
3)[root@doit01 ~]#start-all.sh//开启hdfs和yamr

2.上传hive的安装包,解压
1)解压tar -zxf apache-hive-2.3.5.tar.gz
2)更名mv hive-env.sh.template hive-env.sh
3 vi hive-env.sh

export HADOOP_HOME=/usr/apps/hadoop-2.8.5/
		# Hive Configuration Directory can be controlled by:
		export HIVE_CONF_DIR=/usr/apps/hive-2.3.5/conf/
  1. 修改配置文件(注意写入时要 i )
    vi hive-site.xml
    -----------------***********
<configuration>
	<!-- 记录HIve中的元数据信息  记录在mysql中 -->
	<property>
	<name>javax.jdo.option.ConnectionURL</name>
	<value>jdbc:mysql://doit01:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
	</property>
	<property>
	<name>javax.jdo.option.ConnectionDriverName</name>
	<value>com.mysql.jdbc.Driver</value>
	</property>
	<property>
	<name>javax.jdo.option.ConnectionUserName</name>
	<value>root</value>
	</property>
	<property>
	<name>javax.jdo.option.ConnectionPassword</name>
	<value>123456</value>
	</property>

	<property>
	<name>hive.metastore.warehouse.dir</name>
	<value>/user/hive/warehouse</value>
	</property>

	<property>
	<name>hive.exec.scratchdir</name>
	<value>/user/hive/tmp</value>
	</property>
	<property>
	<name>hive.querylog.location</name>
	<value>/user/hive/log</value>
	</property>
	<!-- shell客户端连接的端口 -->
	<property> 
	<name>hive.server2.thrift.port</name> 
	<value>10000</value>
	</property>
	<property> 
	<name>hive.server2.thrift.bind.host</name> 
	<value>0.0.0.0</value>
	</property>
	<property>
	<name>hive.server2.webui.host</name>
	<value>0.0.0.0</value>
	</property>
	<!-- hive服务的页面的端口 -->
	<property>
	<name>hive.server2.webui.port</name>
	<value>10002</value>
	</property>
	<property> 
	<name>hive.server2.long.polling.timeout</name> 
	<value>5000</value>                               
	</property>
	<property>
	<name>hive.server2.enable.doAs</name>
	<value>true</value>
	</property>
	<property>
	<name>datanucleus.autoCreateSchema </name>
	<value>false</value>
	</property>
	<property>
	<name>datanucleus.fixedDatastore </name>
	<value>true</value>
	</property>

	<property>
	<name>hive.execution.engine</name>
	<value>mr</value>
	</property>

	<property>
	<name>hive.zookeeper.quorum</name>
	<value>doit01,doit02,doit03</value>
	</property>
	</configuration>
  1. vi hdp/ect/hadoop/core-site.xml
<property>
		<name>dfs.permissions.enabled</name>
		<value>false</value>
		</property>

		<property>
		<name>hadoop.proxyuser.root.hosts</name>
		<value>*</value>
		</property>

		<property>
		<name>hadoop.proxyuser.root.groups</name>
		<value>*</value>
		</property>

6.拷贝一个mysql的jdbc驱动jar包到hive的lib目录中
百度输入点击下载即可
mysql-connector-java-5.1.39

7 重启hdp

 stop-all.sh 
 start-all.sh
  1. 初始化hive的元数据库
${HIVE_HOME}/bin/schematool -initSchema -dbType mysql

9.启动方式一
本地客户端启动 直接输入 hive启动

[root@doit01 hive]# cd /usr/apps/hive-2.3.1/bin
[root@doit01 bin]# hive

启动方是二(文字说明)
启动是方式二 使用beeline方式启动远程连接(只有用第二种方式启动才可以出现表格!!!)
1) 在克隆的机器上 启动 hiveserver2 服务
2) 在本机器上 启动 beeline远程连接窗口
3) 在本机器上 !connect jdbc:hive2://doit01:10000
root
回车

使用beeline方式启动远程连接(只有用第二种方式启动才可以出现表格!!!)
1) 在克隆的机器上 启动

 [root@doit01 hive]# cd /usr/apps/hive-2.3.1/bin
  [root@doit01 hive]# hiveserver2 
 2) 在本机器上      启动 beeline远程连接窗口   
[root@doit01 bin]# cd /usr/apps/hive-2.3.1/bin
[root@doit01 bin]# beeline
beeline> ! connect jdbc:hive2://doit01:10000
Connecting to jdbc:hive2://doit01:10000
Enter username for jdbc:hive2://doit01:10000: root
Enter password for jdbc:hive2://doit01:10000: 
Connected to: Apache Hive (version 2.3.1)
Driver: Hive JDBC (version 2.3.1)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://doit01:10000> 
**第二种方式启动可以在窗口中看到数据的表格**
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Hive是基于Hadoop的数据仓库工具,它可以将结构化数据映射为一张数据库表,并提供类似SQL语言的查询功能,使得数据分析师和开发人员可以使用SQL语言来查询和分析大规模的数据。下面是Hive安装与配置详解: 1. 安装Java Hive需要Java环境来运行,所以需要安装Java。可以通过以下命令来安装Java: ``` sudo apt-get update sudo apt-get install default-jdk ``` 2. 安装Hadoop Hive是基于Hadoop的,所以需要安装Hadoop。可以参考Hadoop的安装与配置教程。 3. 下载Hive 可以从Hive的官方网站下载最新的版本,也可以从Apache的镜像站点下载。下载完成后,解压缩到指定目录,比如/opt/hive。 4. 配置Hive 配置文件位于Hive的conf目录下,修改hive-env.sh文件,设置JAVA_HOME和HADOOP_HOME变量的值,比如: ``` export JAVA_HOME=/usr/lib/jvm/default-java export HADOOP_HOME=/opt/hadoop ``` 另外,还需要修改hive-site.xml文件,将以下属性设置为对应的值: ``` <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:/opt/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>org.apache.derby.jdbc.EmbeddedDriver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> ``` 5. 启动Hive 启动Hive之前,需要启动Hadoop。启动Hadoop后,可以通过以下命令启动Hive: ``` cd /opt/hive/bin ./hive ``` 启动成功后,可以在Hive的Shell中输入SQL语句,比如: ``` hive> show tables; ``` 以上就是Hive安装与配置详解。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值