centos 7完全分布式安装MySQL+Hive_centos7 mysql分布式安装

systemctl status mysqld.service

4.修改MySQL密码

1)获取初始密码

grep “password” /var/log/mysqld.log

2)记住上述密码,登录mysql

mysql -uroot -p

粘贴密码,进入mysql

对密码要求进行设置:

1)设置密码强度为低级

set global validate_password_policy=0;

2)设置密码长度

set global validate_password_length=4;

若不设置,则会报错:自己所设置的密码不符合要求

最后修改本地密码

alter user ‘root’@‘localhost’ identified by ‘123456’;

输入\q退出

\q

以新密码进行登录

mysql -uroot -p123456

创建用户

create user ‘root’@‘%’ identified by ‘123456’;

允许远程连接

grant all privileges on . to ‘root’@‘%’ with grant option;

刷新权限

flush privileges;

再次输入\q退出即可。

参考博客:https://blog.csdn.net/weixin_45092204/article/details/120218392

https://blog.csdn.net/qq_43408367/article/details/127299840

Hive3.1.2版本完全分布式安装部署保姆级教程

二、Hive安装

1.hive传输(三台机器都要有)

Xshell中的xftp,将apache-hive-2.3.9-bin.tar.gz传输(Transfer)到CentOS7的文件夹下

2.解压hive(三台机器都解压)

tar -zxvf apache-hive-2.3.9-bin.tar.gz -C 指定目录

为了方便可以重命名,本人一般不做修改。

mv apache-hive-2.3.9-bin hive-2.3.9

3.hive配置
配置hive-env.sh文件

cd ~/apache-hive-2.3.9-bin/conf

vi hive-env.sh

在文件末尾添加

export HADOOP_HOME=/home/zxx/hadoop-2.7.3

export HIVE_CONF_DIR=/home/zxx/apache-hive-2.3.9-bin/conf


配置hive-site.xml文件

如果没有,会自动创建(依旧在~/apache-hive-2.3.9-bin/conf目录下)

hive-site.xml文件内容(master为主节点名称)

<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> hive.exec.scratchdir hdfs://master:8020/user/hive/tmp hive.cli.print.current.db true hive.metastore.warehouse.dir hdfs://master:8020/user/hive/warehouse hive.querylog.location hdfs://master:8020/user/hive/log hive.metastore.uris thrift://master:9083 javax.jdo.option.ConnectionURL jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false&allowPublicKeyRetrieval=true javax.jdo.option.ConnectionDriverName com.mysql.dbc.Driver javax.jdo.option.ConnectionUserName root javax.jdo.option.ConnectionPassword 123456 hive.metastore.schema.verification false datanucleus.schema.autoCreateAll true
4.添加MySQL驱动包(本人选择的是5.1.46版本的)

下载地址:MySQL :: Download MySQL Connector/J (Archived Versions)")

通过xftp将jar文件传入apache-hive-2.3.9-bin/lib目录下

以同样的方式为slave主机添加驱动或者

也可以通过命令分发驱动

scp -r mysql-connector-java-5.1.46.jar slaves1:/home/zxx/apache-hive-2.3.9-bin/lib
scp -r mysql-connector-java-5.1.46.jar slaves2:/home/zxx/apache-hive-2.3.9-bin/lib

5.配置hive环境变量

vi ~/.bash_profile

在文末添加

export HIVE_HOME=/home/zxx/apache-hive-2.3.9-bin

export PATH= P A T H : PATH: PATH:HIVE_HOME/bin

使配置生效

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数大数据工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年大数据全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友。
img
img
img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
img

-o0K0nSKq-1712513635639)]
[外链图片转存中…(img-bByOfJja-1712513635639)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上大数据开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加VX:vip204888 (备注大数据获取)
[外链图片转存中…(img-a5fduIz7-1712513635640)]

  • 24
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值