Bug
我是Sol啊
简介
展开
-
FAILED: SemanticException Failed to get a spark session: org.apache.hadoop.hive.ql.metadata.HiveExce
注意:hive.spark.client.connect.timeout的默认值是1000ms,如果执行hive的insert语句时,抛如下异常,可以调大该参数到10000ms。(注意:端口号8020必须和namenode的端口号一致)-->执行插入语句时,报了如上错误,找了半天是由于超时时间的原因。--Hive和Spark连接超时时间-->--Hive执行引擎-->--Spark依赖位置。原创 2023-10-03 18:56:35 · 506 阅读 · 0 评论 -
Caused by: java.lang.ClassNotFoundException: org.apache.flume.source.kafka.kafkaSource
问题:用flume从kafka往hdfs写数据的时候,找不到这个类,最后发现从flume官网复制kafkasource的时候大写字母不知道咋回事变成小写的了解决方案:将kafkaSource 改为大写的 KafkaSource原创 2023-10-01 21:30:19 · 133 阅读 · 0 评论 -
Exception in thread “main“ org.apache.hadoop.security.AccessControlException: Permission denied: use
然后重启hdfs集群,重启Hive相关服务,重新运行即可。进入Hadoop安装目录下修改。原创 2023-09-05 15:17:50 · 353 阅读 · 0 评论 -
Failed connect to mirrors.cloud.aliyuncs.com:80; Connection refused【拒绝连接】
问题:将yum换成国阿里内镜像源之后更新,一直连接失败。原因:部分yum源失效。原创 2023-08-23 11:36:02 · 488 阅读 · 0 评论 -
Error while executing topic command : Timed out waiting for a node assignment. Call: listTopics
kafka3.0.0版本后取消了--Zookeeper命令,改为了--bootstrap-server所以查询端口号2181超时故应该使用kafka Broker默认端口:9092进行查询。原创 2023-08-20 11:34:06 · 874 阅读 · 0 评论 -
Access denied for user ‘default_cluster:sol@192.168.79.106‘ (using password: YES)“
重新密码登录Doris数据库即可。原创 2023-08-19 10:10:59 · 372 阅读 · 0 评论 -
Doris be启动失败
* soft nofile 65536* hard nofile 65536* soft nproc 65536* hard nproc 65536vim /etc/sysctl.conf在文件最后一行添加 vm.max_map_count=2000000让他永久生效 sysctl -p检查是否生效 sysctl -a|grep vm.max_map_count原创 2023-08-15 12:50:45 · 1007 阅读 · 0 评论