Ambari2.7.4 + HDP3.1.4 离线安装(4)

目录

6. 安装配置部署HDP集群

6.1 登录过程

 6.2 安装向导

 6.2.1 配置集群名字

 6.2.2 选择版本并修改为本地源地址

6.2.3 安装配置

 6.2.4 确认安装ambari的agent

6.2.5 大数据服务组件安装

 6.2.6 节点分配

 6.2.7 分配主从

 6.2.8 安装配置

 6.2.9 概况部署

 7. 集群配置

7.1 hive配置更新

7.2 Spark配置更新


6. 安装配置部署HDP集群

6.1 登录过程

如果你以上安装成功

输入主机ip:8080则会看到如下界面

账户:admin 密码:admin

 6.2 安装向导

 6.2.1 配置集群名字

 6.2.2 选择版本并修改为本地源地址

Centos的选择rathat7,HDP和DHP-UTILS的url地址填上之前改好的

 

使用当前安装包需要修改HDP,HDP-3.1.4.0

ambari确认过了就next继续了

6.2.3 安装配置

上传之前存好的秘钥文件id_rsa

 6.2.4 确认安装ambari的agent

确认安装ambari的agent,并检查出现的问题,这个地方经常出现错误

检查无误,NEXT→通过即可

如果这个步骤失败了错误,记得多看日志,多找问题,如果还不行的话,回档

[root@master ~]# # ambari-server stop    #停止命令
[root@master ~]# # ambari-server reset   #重置命令
[root@master ~]# # ambari-server setup   #重新设置 
[root@master ~]# # ambari-server start   #启动命令

6.2.5 大数据服务组件安装

勾选你所需要的

 6.2.6 节点分配

 6.2.7 分配主从

 6.2.8 安装配置

hive和oozie的数据库用户密码填上之前创建好的

 如果安装了hive,ooize等,需要修改成我们本地建好的库,jdbc-mysql也要配置好

 6.2.9 概况部署

 

 

  警告这里我这就忽略掉了,后期我们再修复

 7. 集群配置

PS. 下面为一些组件使用时需要修改的内容,刚装完环境设置好,不是必要操作

7.1 hive配置更新

修改hive配置,关闭acid

hive.strict.managed.tables=false 
hive.create.as.insert.only=false 
metastore.create.as.acid=false

新增hive-site配置,关闭客户端校验

hive.metastore.client.capability.check = false

设置数据库路径访问权限(KUDU使用)

hdfs dfs -chmod -R 777  /warehouse/tablespace/managed/hive

7.2 Spark配置更新

关闭hiveacid后,访问metastore值需要配置,该配置项为spark度metastore文件默认配置,原值为spark,读自己的

metastore.catalog.default=hive
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值