CDH安装时出现的坑

一、mysql修改简单密码    mysql> set password = password(‘1234’);#设置密码报错:ERROR 1819 (HY000): Your password does not satisfy the current policy requirements首先,修改validate_password_policy参数的值mysql> set global validate_password_policy=0;这样,判断密码的标准就基于密码的长度了。这个由validate_password_length参数来决定。validate_password_length参数默认为8,可以设置为其它值,最小4位mysql> set global validate_password_length=1;mysql> set password = password(‘1234’);Query OK, 0 rows affected,1 warning (0.00 sec)授权用户root使用密码passwd从任意主机连接到mysql服务器GRANT ALL PRIVILEGES ON . TO ‘root’@’%’ IDENTIFIED BY ‘mysql密码’ WITH GRANT OPTION;flush privileges;二、hive,oozie安装失败,无法连接mysql此处hive ,oozie会安装失败,因为我们使用了MySQL作为hive元数据存储,需要将mysql驱动拷贝到hive和oozie目录下。(所有节点)cp /opt/cm-5.15.0/share/cmf/lib/mysql-connector-java-5.1.46-bin.jar /opt/cloudera/parcels/CDH-5.15.1-1.cdh5.15.1.p0.4/lib/hive/libcp /opt/cm-5.15.0/share/cmf/lib/mysql-connector-java-5.1.46-bin.jar /var/lib/oozie/然后重试安装就可以了三、缺少东西1、pstree: command not found/opt/cm-5,15.0/etc/init.d/cloudera-scm-server start/opt/cm-5.15.0/etc/init.d/cloudera-scm-server: line 109:pstree: command not foundStarting cloudera-scm-server: [FAILED]/opt/cm-5.15.0/etc/init.d/cloudera-scm-agent start/opt/cm-5.15.0/etc/init.d/cloudera-scm-agent: line 108:pstree: command not foundStarting cloudera-scm-agent: [FAILED]因为系统是最小化安装,默认没有安装解决方法yum install psmisc -y中途安装失败,重新安装关闭所有服务主节点 > / o p t / c m − 5.15.0 / e t c / i n i t . d / c l o u d e r a − s c m − s e r v e r s t o p 主 节 点 及 其 他 节 点 > /opt/cm-5.15.0/etc/init.d/cloudera-scm-server stop主节点及其他节点 >/opt/cm5.15.0/etc/init.d/clouderascmserverstop>  /opt/cm-5.15.0/etc/init.d/cloudera-scm-agent stop删除agent uuidrm -rf /opt/cm-5.15.0/lib/cloudera-scm-agent/*删除数据库scm重新配置数据库/opt/cm-5.15.0/share/cmf/schema/scm_prepare_database.sh mysql -hlocalhost -uroot -p scm scm启动Cloudera server和agent,按照之前步骤安装即可四,无法找到JAVA_HOME

use as JAVA_HOME
 JAVA_HOME 并没有设置成功,然而在jdk安装时设置了JAVA_HOME ,而且在linux shell 执行 echo $JAVA_HOME  也是有输出的, 由于CDH不会使用系统默认JAVA_HOME环境变量,而是使用Bigtop进行管理,故我们需要安装Bigtop的规则在指定的位置安装jdk。配置在这里:/opt/cm-xxx/lib64/cmf/service/common/cloudera-config.sh其中可以看到:local JAVA8_HOME_CANDIDATES=(’/usr/java/jdk1.8’’/usr/java/jre1.8’’/usr/lib/jvm/j2sdk1.8-oracle’’/usr/lib/jvm/j2sdk1.8-oracle/jre’’/usr/lib/jvm/java-8-oracle’)在相应的JAVA_HOME下添加自己的JAVA_HOME目录即可

作者:向零而一
链接:https://www.jianshu.com/p/e000d076e2b1
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
您好!要在CDH(Cloudera Distribution for Hadoop)上安装Flink,您可以按照以下步骤进行操作: 1. 确保您已经正确地安装CDH集群,包括Hadoop、YARN和HDFS等组件,并且集群正常运行。 2. 下载Flink的二进制发行版。您可以从Flink的官方网站(https://flink.apache.org/downloads.html)上获取最新版本的二进制压缩包。 3. 解压缩Flink二进制压缩包,并将解压后的文件夹移动到CDH集群的某个节点上。 4. 配置Flink的环境变量。编辑Flink文件夹中的`conf/flink-conf.yaml`文件,根据您的CDH集群配置修改以下参数: - `jobmanager.rpc.address`:设置为CDH集群中Flink JobManager所在节点的主机名或IP地址。 - `fs.hdfs.hadoopconf`:设置为CDH集群中Hadoop配置文件目录的路径。 5. 配置CDH集群中的Hadoop和YARN相关配置。在CDH集群中的每个节点上,将Flink文件夹中的`conf`文件夹下的`log4j.properties`复制到Hadoop配置目录(默认为`/etc/hadoop/conf/`),并重命名为`flink-log4j.properties`。 6. 启动Flink集群。在CDH集群的某个节点上,使用以下命令启动Flink的JobManager: ``` ./bin/start-cluster.sh ``` 7. 验证Flink集群是否正常运行。您可以在浏览器中打开Flink的Web界面(默认为http://<jobmanager-host>:8081/),查看Flink的状态和运行的作业。 请注意,以上步骤仅适用于CDH集群上的Flink安装。如需更详细的步骤或遇到其他问题,请参考Flink官方文档或CDH相关文档,或随向我提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值