hive安装

1.安装mysql 作为hive的meta store

 2.上传hive的安装包

sudo mkdir /usr/local/src/hive
sudo chown -R ucmed:ucmed /usr/local/src/hive
cp /tmp/apache-hive-3.1.2-bin.tar.gz /usr/local/src/hive
cd /usr/local/src/hive
tar -xzvf apache-hive-3.1.2-bin.tar.gz

3.修改配置文件

cd /usr/local/src/hive/apache-hive-3.1.2-bin/conf
cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
cp hive-log4j2.properties.template hive-log4j2.properties
cp hive-default.xml.template hive-default.xml

cp hive-env.sh.template  hive-env.sh
vim hive-env.sh

export HADOOP_HOME=/usr/local/src/hadoop/hadoop-3.3.1/
export HIVE_CONF_DIR=/usr/local/src/hive/apache-hive-3.1.2-bin/conf/
vim  hive-site.xm

<configuration>
    <!-- 记录HIve中的元数据信息  记录在mysql中 -->
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
    </property>
    <!-- jdbc mysql驱动 -->
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <!-- mysql的用户名和密码 -->
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>WY@KW9OQpj5Spztd</value>
    </property>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <property>
        <name>hive.exec.scratchdir</name>
        <value>/user/hive/tmp</value>
    </property>
    <!-- 日志目录 -->
    <property>
        <name>hive.querylog.location</name>
        <value>/user/hive/log</value>
    </property>
    <!-- 设置metastore的节点信息 -->
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://master:9083</value>
    </property>
    <!-- 客户端远程连接的端口 -->
    <property>
        <name>hive.server2.thrift.port</name>
        <value>10000</value>
    </property>
    <property>
        <name>hive.server2.thrift.bind.host</name>
        <value>0.0.0.0</value>
    </property>
    <property>
        <name>hive.server2.webui.host</name>
        <value>0.0.0.0</value>
    </property>
    <!-- hive服务的页面的端口 -->
    <property>
        <name>hive.server2.webui.port</name>
        <value>10002</value>
    </property>
    <property>
        <name>hive.server2.long.polling.timeout</name>
        <value>5000</value>
    </property>
    <property>
        <name>hive.server2.enable.doAs</name>
        <value>true</value>
    </property>
    <property>
        <name>datanucleus.autoCreateSchema</name>
        <value>false</value>
    </property>
    <property>
        <name>datanucleus.fixedDatastore</name>
        <value>true</value>
    </property>
    <property>
        <name>hive.metastore.event.db.notification.api.auth</name>
        <value>false</value>
    </property>
    <property>
        <name>hive.metastore.sasl.enabled</name>
        <value>false</value>
        <description>If true, the metastore Thrift interface will be secured with SASL. Clients must authenticate with Kerberos.</description>
    </property>
    <property>
        <name>hive.server2.enable.doAs</name>
        <value>false</value>
    </property>
    <property>
        <name>hive.server2.authentication</name>
        <value>NONE</value>
    </property>
    <property>
        <name>hive.execution.engine</name>
        <value>mr</value>
    </property>
      <property>
        <name>hive.stats.autogather</name>
        <value>false</value>
    </property>
</configuration>

编辑Hadoop的core-site.xml

vim  /usr/local/src/hadoop/hadoop-3.3.1/etc/hadoop/core-site.xml
#同步配置文件
scp /usr/local/src/hadoop/hadoop-3.3.1/etc/hadoop/core-site.xml slave1:/usr/local/src/hadoop/hadoop-3.3.1/etc/hadoop/core-site.xml
scp /usr/local/src/hadoop/hadoop-3.3.1/etc/hadoop/core-site.xml slave2:/usr/local/src/hadoop/hadoop-3.3.1/etc/hadoop/core-site.xml

追加
<property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
</property>
<property>
    <name>hadoop.proxyuser.ucmed.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.ucmed.groups</name>
    <value>*</value>
</property>

4.拷贝hive所需的jdbc驱动

拷贝到/usr/local/src/hive/apache-hive-3.1.2-bin/lib

cp /tmp/mysql-connector-java-5.1.39.jar /usr/local/src/hive/apache-hive-3.1.2-bin/lib

5.配置hive环境变量

sudo vim /etc/profile
export HIVE_HOME=/usr/local/src/hive/apache-hive-3.1.2-bin
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin
source /etc/profile

5.重启hdfs和yarn

slave1上
/usr/local/src/hadoop/hadoop-3.3.1/****in/stop-yarn.sh
/usr/local/src/hadoop/hadoop-3.3.1/****in/start-yarn.sh
master 上
/usr/local/src/hadoop/hadoop-3.3.1/****in/stop-dfs.sh
/usr/local/src/hadoop/hadoop-3.3.1/****in/start-dfs.sh

6.初始化hive的元数据库

schematool -initSchema -dbType  mysql

会在目标数据库生产对应表

7.启动测试hive

#启动元数据服务
sudo mkdir -p /opt/logs/hive/
sudo chown -R ucmed:ucmed /opt/logs/hive/
nohup hive --service metastore >> /opt/logs/hive/metastore.log 2>&1 &
nohup hive --service hiveserver2 >> /opt/logs/hive/hiveserver2.log 2>&1 &
hive

输入以下sql语句,进行功能验证

show  databases  ;
create database db_doit ;
use db_doit ;
create table if not exists tb_user (id int , name string) ; 
show tables ;

通过第三方工具连接hive

DBeaver

连接地址 jdbc:hive2://192.168.3.184:10000/default

hive web ui

http://192.168.3.184:10002/

安装Sqoop时,需要配置Hive安装目录。可以按照以下步骤进行操作: 1. 下载Sqoop的压缩包并解压到合适的路径,比如 `/usr/local/sqoop`。可以使用以下命令进行解压: ``` sudo tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/ ``` 2. 进入Sqoop的安装目录: ``` cd /usr/local/sqoop ``` 3. 创建并配置Sqoop的配置文件: ``` cp conf/sqoop-env-template.sh conf/sqoop-env.sh ``` 4. 编辑配置文件 `sqoop-env.sh`,设置Hive安装目录: ``` export HIVE_HOME=/usr/local/apache-hive-1.2.2-bin ``` 5. 保存并退出配置文件。 完成以上步骤后,Sqoop就可以与Hive进行集成了。请确保Hive已经正确安装,并且Hive安装目录与上述配置文件中的路径一致。 #### 引用[.reference_title] - *1* *3* [安装sqoop](https://blog.csdn.net/weixin_45955039/article/details/123411295)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [大数据可视化——Sqoop与Hive安装详解](https://blog.csdn.net/weixin_58648684/article/details/127666985)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值