浏览器访问地址:
http://hadoop-2:7180
用户密码:admin/admin
- 用户许可条款和条件
点继续
-
选择版本
选择中间试用版即可,到期自动转为第一种免费版。
-
感谢选择页面
继续。
4.为 CDH 群集安装指定主机
点模式可以查看规则,按规则填写,然后搜索,如下搜到三台主机,继续。
- 选择parcel存储库
选配置parcel存储库,点更多选项。
之前在httpd服务里配过的,把http://192.168.201.82/cdh/配置进去,如下保存。
-
指定CM版本及存储地址
之前在httpd服务里配过的,把http://192.168.201.82/cm/5.15.1/配置进去,如下保存,继续。
-
JDK安装选项
-
单用户模式
不需要启动单用户模式,直接继续。
-
提供 SSH 登录凭据
提供root用户的密码,或者能sudo权限的密码,继续。
-
安装Agents
稍等一下,等完成。
-
CM安装成功
这里是在所有的节点上安装Cloudera Manager监控的slave,包括主节点,
这一步做完你会发现系统中多了一个叫做cloudera-scm-agent的服务
可以用下面命令查看:
rpm -qa| grep cloudera
- CM安装分发选定Parcel
安装大数据服务组件,Hadoop,Hive,HBase,Zookeeper什么的,上一步只是安装Cloudera Manager监控的从节点
不过这一步虽然是安装,但是更像是复制,把Parcel包从我们配置的yum源里把CDH-5.15.1-1.cdh5.15.1.p0.4-el6.parcel包解压并复制到相应的目录下
13. 主机正确性检查
主要是准备工作的时候做的配置,如果有问题,这里会体现出来,点完成。
-
添加大数据服务
这里可根据自己需要选择,这里选第二个,继续。
-
角色分配
默认就可以了,改的话服务不要太集中。
-
数据库设置
下面服务配置对应的数据库,之前在安装Mysql后都已经创建好了,填写好,测试没问题后,继续。
数据库主机名称就是Mysql安装的主机名。
-
审核更改
默认,继续。
-
部署完成
部署刚刚我们选 的大数据服务,它会在相应的/etc目录下生成配置文件,
比如说Hadoop的配置文件个位置就是:/etc/hadoop
这里首次启动,速度较慢。
继续。
安装完成。
部署完成的界面:
这里有不少警告提示,后面就要自己慢慢调了。
--------------------
上面发现hive有问题,查看日志发现mysql驱动不匹配,把java共享目录/usr/share/java/下驱动换成mysql-connector-java-5.1.47-bin.jar版本后重启后正常:
这里要感谢荒野独行的分享,这里是实现的记录,大家可做参考,谢谢。
参考资料:https://blog.csdn.net/daerzei/article/details/80645610