1. 下载
wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.16.2.tar.gz
2. 解压、配置、运行
- 解压hive压缩包到指定目录,并且进入Hive的目录
tar -zxvf hive-1.1.0-cdh5.7.0.tar.gz -C /workspace/app/
cd /workspace/app/hive-1.1.0-cdh5.7.0
- 配置Hive相关的环境变量
$ vim /etc/profile
#加入以下几个设置
export HIVE_HOME=/workspace/app/hive-1.1.0-cdh5.7.0
export PATH=$HIVE_HOME/bin:$PATH
保存退出,使用配置的环境变量生效source /etc/profile
配置Hadoop安装的目录
$ cd conf
$ cp hive-env.sh.template hive-env.sh
$ vim hive-env.sh
# 加入以下设置
HADOOP_HOME=/workspace/app/hadoop-2.6.0-cdh5.7.0 #根据自己安装的目录而定
保存退出。
3. 配置MySQL,从网上下载一个配置模板,在Hive的conf目录下新建hive-site.xml,内容如下:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<!-- 指定连接mysql数据库的主机名称、端口号和新建数据库的名称 -->
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/sparksql?createDatabaseIfNotExist=true</value>
</property>
<!-- 指定mysql的连接驱动 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<!-- 我使用的是 MySQL 5.7.0 -->
<value>com.mysql.cj.jdbc.Driver</value>
</property>
<!-- 指定mysql的登录用户名 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<!-- 指定mysql的登录密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
</configuration>
往Hive的lib目录中添加对应的MySQL驱动jar包,如下:
- 运行Hive,执行
bin/hive
。Hive会在MySQL数据库中创建sparksql数据库,并创建许多元信息数据表