hive安装

1 最简安装:用内嵌derby作为元数据库(本地模式)

1.0 优缺点

使用简单,无需配置
但是支持单session

1.1 准备工作:安装hive的机器上应该有HADOOP环境(安装目录,HADOOP_HOME环境变量)

1.2 安装:直接解压一个hive安装包即可
上传软件包:apache-hive-2.1.1-bin.tar.gz

# 解压拆包
tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /opt/
# 重命名(进入到/opt/目录下)
mv apache-hive-2.1.1-bin/ hive
# 配置环境变量
vi /etc/profile/
# 在最后面添加
export HIVE_HOME=/opt/hive
export PATH=$PATH:$HIVE_HOME/bin

1.4 配置hive的配置文件:hive-env.sh

# Set HADOOP_HOME to point to a specific hadoop install directory
# 这里选择自己安装的hadoop目录
HADOOP_HOME=/opt/hadoop

# Hive Configuration Directory can be controlled by:
export HIVE_CONF_DIR=/opt/hive/conf

1.5 启动hive服务(其实就是打开hdfs和yarn)

start-dfs.sh
start-yarn.sh
hive
Logging initialized using configuration in jar:file:/usr/local/hive-1.2.1/lib/hive-common-1.2.1.jar!/hive-log4j.properties
hive>

2 远程模式(元数据库在远程服务器上,适合多用户开发,比如在这里安装mysql存储元数据)

2.1 优缺点

支持多session
需要额外配置,还需要安装数据库软件

前提:
安装好mysql在一台分布式集群上(例如hadoop02)
参照:点击查看安装mysql(linux版(centos7))

2.2 安装mysql并远程授权

GRANT ALL PRIVILEGES ON *.* TO root@'%' IDENTIFIED BY '123456' with grant option;
flush privileges;
GRANT ALL PRIVILEGES ON *.* TO root@'localhost' IDENTIFIED BY '123456' with grant option;
flush privileges;

2.3 配置hive-site.xml

<configuration>
<!--配置mysql的连接字符串-->
<property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hadoop02:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
</property>

<!--配置mysql的连接驱动-->
<property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
</property>

<!--配置登录mysql的用户-->
<property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>username to use against metastore database</description>
</property>

<!--配置登录mysql的密码-->
<property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>123456</value>
    <description>password to use against metastore database</description>
</property>
</configuration>

2.4 上传一个mysql的jdbc驱动jar到hive安装目录的lib目录中(记得上传)

mysql-connector-java-5.1.28-bin.jar

2.5 配置HADOOP_HOME 和HIVE_HOME到系统环境变量中:/etc/profile
2.6 source /etc/profile(每次配置完环境变量记得source)

注意!注意!注意!要schematool

# 在hive2.x.x之后需要 schematool
schematool -initSchema -dbType mysql
#(注意要在hive的安装包的bin目录下)

# 或者在安装的hive目录下
bin/schematool -initSchema -dbType mysql

2.7 启动hive 测试

hive
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
安装Sqoop时,需要配置Hive安装目录。可以按照以下步骤进行操作: 1. 下载Sqoop的压缩包并解压到合适的路径,比如 `/usr/local/sqoop`。可以使用以下命令进行解压: ``` sudo tar -zxvf sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz -C /usr/local/ ``` 2. 进入Sqoop的安装目录: ``` cd /usr/local/sqoop ``` 3. 创建并配置Sqoop的配置文件: ``` cp conf/sqoop-env-template.sh conf/sqoop-env.sh ``` 4. 编辑配置文件 `sqoop-env.sh`,设置Hive安装目录: ``` export HIVE_HOME=/usr/local/apache-hive-1.2.2-bin ``` 5. 保存并退出配置文件。 完成以上步骤后,Sqoop就可以与Hive进行集成了。请确保Hive已经正确安装,并且Hive安装目录与上述配置文件中的路径一致。 #### 引用[.reference_title] - *1* *3* [安装sqoop](https://blog.csdn.net/weixin_45955039/article/details/123411295)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [大数据可视化——Sqoop与Hive安装详解](https://blog.csdn.net/weixin_58648684/article/details/127666985)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值