分分钟搞定!
-
https://mirrors.bfsu.edu.cn/apache/ 进入apach全家桶镜像,找到hive
-
Hadoop 3.x版本的话,Hive 也下载3.x版本
-
Hive相当于一个客户端工具,放到任意一个节点上都可。
-
上传到服务器 、解压
-
进入hive目录
-
cd conf
-
修改 hive-env.sh.template 名称 为 hive-env.sh :mv即可
-
vi hive-env.sh 直接在最后一行 加入各种环境变量即可,按自己安装的位置来
export JAVA_HOME=/data/soft/jdk1.8
export HIVE_HOME=/data/soft/apache-hive-3.1.2-bin
export HADOOP_HOME=/data/soft/hadoop-3.2.3
-
修改 hive-default.xml.template 为 hive-site.xml ,然后进入 vi hive-site.xml
-
修改javax.jdo.option.ConnectionURL
- value修改为jdbc:mysql://ip:port/hive?serverTimeZone=Asia/Shanghai
- 自己搭建在本地的话就localhost:3306
-
修改javax.jdo.option.ConnectionDriverName
- value 修改为 com.mysql.cj.jdbc.Driver
-
修改javax.jdo.option.ConnectionUserName
- value 修改为 数据库 账号
-
修改javax.jdo.option.ConnectionPassword
- value修改为数据密码
-
修改 hive.querylog.location
- value改为 /data/hive_repo/querylog :都是自己定义的地址
-
修改hive.exec.local.scratchdir
- value改为 /data/hive_repo/scratchdir
-
修改 hive.downloaded.resources.dir
- /data/hive_repo/resources
-
-
mysql的驱动包mysql-connector-java.8.0.16.jar 得放入 hive lib目录下
https://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-8.0.16.zip //一般向下兼容
-
进入hadoop目录,修改hadoop集群配置 /etc/hadoop/core-site.xml
-
加2个property
-
<property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <propery> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </propery>
-
注意同步到集群所有节点 (客户端节点就不需要,hive可以安装在客户端)
-
重启集群
-
-
创建数据库 hive表
-
hive bin/schematool -dbType mysql initSchema 初始化mysql数据库中的表。 (手敲,有bug,得手敲,复制不行)
-
hive就是个客户端直接使用,不需要创建任何进程。
-
踩坑报错
-
然后code0x8 错误 ,把报错的那一行注释掉 :set nu 出现行标 :xx跳到指定行
-
再次手敲启动命令 初始化成功。
表的元数据信息 是存在mysql里的, 真正的数据是在hdfs里面的。