kaku1230
码龄9年
关注
提问 私信
  • 博客:11,333
    11,333
    总访问量
  • 7
    原创
  • 94,186
    排名
  • 11
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2016-05-24
博客简介:

kaku1230的博客

查看详细资料
  • 原力等级
    当前等级
    1
    当前总分
    47
    当月
    0
个人成就
  • 获得17次点赞
  • 内容获得11次评论
  • 获得16次收藏
创作历程
  • 2篇
    2024年
  • 1篇
    2022年
  • 2篇
    2021年
  • 3篇
    2020年
成就勋章
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

hive3.1.3 hiveserver启动报错

hiveserver2报错
原创
发布博客 2024.12.22 ·
147 阅读 ·
1 点赞 ·
0 评论 ·
0 收藏

记录hive3.1.3 用mysql8.0.26作为元数据管理的一个坑

然后继续后面的操作发现可以建表,那就是mysql版本问题了,但是我不想用mysql5,就继续研究,搞了将近一天还是不行,就在我快要放弃的时候看到b站上有人hive4.0用mysql8.3竟然成功了,我看了一下视频发现他用的驱动是。,跟我的8.0驱动名字差太多了,我抱着试试的心态下载了这个驱动包,放到lib目录下,重新初始化,神器的发现可以建表插入数据了,唉,整个过程真是心酸啊。我怀疑是mysql版本问题,然后换成mysql5.7,驱动换成。
原创
发布博客 2024.12.22 ·
264 阅读 ·
13 点赞 ·
0 评论 ·
1 收藏

关于sparksql无法对hive表查询或插入的问题

sparksql处理hive
原创
发布博客 2022.03.06 ·
1106 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

TDH报错hive:exceed safety size

TDH报错hive:exceed safety sizeSET ngmr.safety.size.single.entry=-1;
原创
发布博客 2021.03.23 ·
850 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

如何卸载流氓软件—UniAccessAgent

下载一个git客户端,cdC:\Windows\LVUAAgentInstBaseRoot 到目录下,rm -f *.exe 重启完事儿
原创
发布博客 2021.03.09 ·
3071 阅读 ·
3 点赞 ·
11 评论 ·
3 收藏

Spark调优

Map端分区coalesce()方法的参数shuffle默认设置为false,repartition()方法就是coalesce()方法shuffle为true的情况。****假设RDD有N个分区,需要重新划分成M个分区:**1. N < M: 一般情况下N个分区有数据分布不均匀的状况,利用HashPartitioner函数将数据重新分区为M个,这时需要将shuffle设置为true。因为重分区前后相当于宽依赖,会发生shuffle过程,此时可以使用coalesce(shuffle=tr...
原创
发布博客 2020.12.07 ·
167 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

spark的读取方法textFile和wholeTextFiles

sc.textFiles(path)能将path 里的所有文件内容读出,以文件中的每一行作为一条记录的方式,文件的每一行 相当于 List中以 “,”号 隔开的一个元素,而使用 sc.wholeTextFiles()时:返回的是[(K1, V1), (K2, V2)...]的形式,其中K是文件路径,V是文件内容,这里我们要注意的重点是:官方一句话:''Each file is ...
转载
发布博客 2020.04.23 ·
611 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

HIVE Mapred tasks exceed 1000000000

Topo check failed. Mapred tasks exceed 1000000000Automerge可以直接在Inceptor命令行中开启:SET ngmr.partition.automerge = true;SET ngmr.partition.mergesize = n;SET ngmr.partition.mergesize.mb = m;"ngmr.part...
原创
发布博客 2020.04.01 ·
5116 阅读 ·
0 点赞 ·
0 评论 ·
6 收藏