目录
6. 安装配置部署HDP集群
6.1 登录过程
如果你以上安装成功
输入主机ip:8080则会看到如下界面
账户:admin 密码:admin
6.2 安装向导
6.2.1 配置集群名字
6.2.2 选择版本并修改为本地源地址
Centos的选择rathat7,HDP和DHP-UTILS的url地址填上之前改好的
使用当前安装包需要修改HDP,HDP-3.1.4.0
ambari确认过了就next继续了
6.2.3 安装配置
上传之前存好的秘钥文件id_rsa
6.2.4 确认安装ambari的agent
确认安装ambari的agent,并检查出现的问题,这个地方经常出现错误
检查无误,NEXT→通过即可
如果这个步骤失败了错误,记得多看日志,多找问题,如果还不行的话,回档
[root@master ~]# # ambari-server stop #停止命令
[root@master ~]# # ambari-server reset #重置命令
[root@master ~]# # ambari-server setup #重新设置
[root@master ~]# # ambari-server start #启动命令
6.2.5 大数据服务组件安装
勾选你所需要的
6.2.6 节点分配
6.2.7 分配主从
6.2.8 安装配置
hive和oozie的数据库用户密码填上之前创建好的
如果安装了hive,ooize等,需要修改成我们本地建好的库,jdbc-mysql也要配置好
6.2.9 概况部署
警告这里我这就忽略掉了,后期我们再修复
7. 集群配置
PS. 下面为一些组件使用时需要修改的内容,刚装完环境设置好,不是必要操作
7.1 hive配置更新
修改hive配置,关闭acid
hive.strict.managed.tables=false
hive.create.as.insert.only=false
metastore.create.as.acid=false
新增hive-site配置,关闭客户端校验
hive.metastore.client.capability.check = false
设置数据库路径访问权限(KUDU使用)
hdfs dfs -chmod -R 777 /warehouse/tablespace/managed/hive
7.2 Spark配置更新
关闭hiveacid后,访问metastore值需要配置,该配置项为spark度metastore文件默认配置,原值为spark,读自己的
metastore.catalog.default=hive