hive的安装及相关命令

向hadoop的core-site.yml文件里面添加配置
<property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
</property>

下载hive

下载网址:
https://archive.apache.org/dist/hive/hive-3.1.3/

下载hive的mysql驱动
https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.34/mysql-connector-java-
5.1.34.jar

下载好的jar包放到hive的lib目录下

为hive创建软连 ln -s /export/server/hivexx hive
修改hive-env.sh

export HADOOP_HOME=/export/server/hadoop
export HIVE_CONF_DIR=/export/server/hive/conf
export HIVE_AUX_JARS_PATH=/export/server/hive/lib

修改hive-site.xml,没有xml就创建

<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node1:3306/hive?
createDatabaseIfnotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node1</value>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://node1:9083</value>
</property>
<property>
<name>hive.metastore.event.db.notification.api.auth</name>
<value>false</value>
</property>
</configuration>

进行入mysql创建一个数据库用于hive的元数据储存

mysql -uroot -p
create database hive charset utf8;
# 进入hive/bin下面执行
./schematool -initSchema -dbType mysql -verbose

后台启动hive

#进入hive目录下面,执行命令启动metastore,如果没有logs文件夹,就先创建
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
#查看metastore的进程
ps-ef |grep 40991
# 启动客户端,提前进入到hive文件夹中
bin/hive 

hive的操作

 # 不选择数据库,会自动在default中创建表
 create table test(id int,name string,age int);
 # 如果报错root is a not leaf queue, 先执行  set mapred.job.queue.name=root.root;
 set mapred.job.queue.name=root.root;

hive创建表的存放位置

hadoop fs -ls /usr/hive/warehouse  #表存放在这里
# 验证maqreduce里面的sql执行
http://node1:8088

hive 启动HiveServer2

nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
#连接Dbeaver客户端

参考链接:
https://blog.csdn.net/zhangyujie12138/article/details/123903045

执行insert语句调用mapreduce的时候报错 root is not a leaf root

需要配置/hadoop/etc/hadoop/mapred-queues.xml

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值