hadoop -hive 安装

1.下载hive

http://archive.apache.org/dist/hive/hive-3.1.3/apache-hive-3.1.3-bin.tar.gz

2.解压/usr/app 目录

tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /usr/app

3.设置软连接

ln -s /usr/app/apache-hive-3.1.3-bin /usr/app/hive

4.修改/usr/app/hive/conf/hive-env.sh 文件

#hadoop 目录
export HADOOP_HOME=/usr/app/hadoop
#hive 配置文件目录
export HIVE_CONF_DIR=/usr/app/hive/conf
#hive 依赖目录
export HIVE_AUX_JARS_PATH=/usr/app/hive/lib

5.修改/usr/app/hive/conf/hive-site.xml 目录

<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://mysql:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>

  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
<!-- mysql  用户名-->
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
  </property>
<!-- mysql  用户密码-->
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
  </property>
  <!-- hive 对外暴露地址-->
  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>node1</value>
  </property>
  <!-- 暴露 远程hive 元数据链接  其他hive 如果使用这个元数据 只需要在 hive-site.xml 配置该属性 -->
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://node1:9083</value>
  </property>
  <!--关闭远程元数据校验 -->
  <property>
    <name>hive.metastore.event.db.notification.api.auth</name>
    <value>false</value>
  </property>

</configuration>

6.mysql 创建hive 数据库库

CREATE DATABASE hive CHARSET UTF8;

7.执行元数据库初始化命令:

cd /usr/app/hive
bin/schematool -initSchema -dbType mysql -verbos

初始化成功后,会在MySQL的hive库中新建74张元数据管理的表。

确保Hive文件夹所属为hadoop用户
创建一个hive的日志文件夹:

mkdir /export/server/hive/logs

9.启动元数据管理服务(必须启动,否则无法工作)

前台启动:bin/hive --service metastore 
后台启动:nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &

10.启动客户端

Hive Shell方式(可以直接写SQL): bin/hive
Hive ThriftServer方式(不可直接写SQL,需要外部客户端链接使用): bin/hive --service hiveserver2
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
安装Hive之前,需要先安装Hadoop。以下是单节点HadoopHive安装步骤: 1. 下载Hadoop并解压缩到一个目录中: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz tar -xzvf hadoop-3.3.0.tar.gz ``` 2. 修改Hadoop配置文件(conf/hadoop-env.sh),添加JAVA_HOME环境变量: ``` export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 ``` 3. 修改Hadoop配置文件(conf/core-site.xml),添加以下内容: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 4. 修改Hadoop配置文件(conf/hdfs-site.xml),添加以下内容: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` 5. 格式化Hadoop文件系统: ``` bin/hdfs namenode -format ``` 6. 启动Hadoop: ``` sbin/start-all.sh ``` 7. 下载Hive并解压缩到一个目录中: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz tar -xzvf apache-hive-3.1.2-bin.tar.gz ``` 8. 修改Hive配置文件(conf/hive-env.sh),添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop-3.3.0 export HIVE_CONF_DIR=/path/to/apache-hive-3.1.2-bin/conf ``` 9. 修改Hive配置文件(conf/hive-site.xml),添加以下内容: ``` <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:derby:/path/to/apache-hive-3.1.2-bin/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/user/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <property> <name>hive.server2.enable.doAs</name> <value>false</value> <description>Whether to impersonate the connected user to the metastore</description> </property> <property> <name>hive.server2.authentication</name> <value>NONE</value> <description>Client authentication for HiveServer2</description> </property> <property> <name>hive.server2.enable.doAs</name> <value>false</value> <description>Whether to impersonate the connected user to HiveServer2</description> </property> </configuration> ``` 10. 创建Hive的元数据库: ``` bin/schematool -initSchema -dbType derby ``` 11. 启动Hive Shell: ``` bin/hive ``` 现在,您可以在Hive Shell中执行SQL查询了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

是杨杨呀

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值