sour_LI
码龄2年
关注
提问 私信
  • 博客:5,376
    问答:47
    5,423
    总访问量
  • 4
    原创
  • 2,231,034
    排名
  • 46
    粉丝
  • 0
    铁粉

个人简介:眩晕的每一天

IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:浙江省
  • 加入CSDN时间: 2023-04-05
博客简介:

sour_LI的博客

查看详细资料
个人成就
  • 获得66次点赞
  • 内容获得2次评论
  • 获得55次收藏
创作历程
  • 4篇
    2024年
成就勋章
TA的专栏
  • 李的随笔
    4篇
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

canal-同步速度没有达到预期效率

发布问题 2024.07.24 ·
4 回答

在DataGrip中,sparkSQL分析数据导入mysql

简单讲就是创建临时表或者视图,把需要的字段映射进mysql。中间细节有点忘了,行不通的话,想问的评论或者私信问我,有时间就回。全是代码,cv替换成你们自己的就行。涉及到业务,中间删改了的,可能有点问题,自己看着改把。
原创
发布博客 2024.01.12 ·
404 阅读 ·
7 点赞 ·
1 评论 ·
6 收藏

xslx表格文件采集到hdfs流程&hdfs数据 load到hive表

值得注意的是脚本内容指定了一个json文件,如果后面需要同步其他任务,记得修改相关配置;后端启动hive --service metastore:nohup hive --service metastore > /dev/null 2>&1 &python datax/bin/datax.py json文件路径/job.json。iconv -f gbk -t UTF-8 目标csv文件 > 生成新csv文件。可以查看文件现在的编码格式(编码格式不匹配会导致文件内中文乱码)。),按照需求配置json文件。
原创
发布博客 2024.01.12 ·
1073 阅读 ·
21 点赞 ·
0 评论 ·
19 收藏

配置spark on hive,后续可以使用DataGrip连接spark编写sparkSQL

使用DataGrip连接spark编写sparkSQL
原创
发布博客 2024.01.12 ·
1342 阅读 ·
20 点赞 ·
0 评论 ·
17 收藏

DataGrip连接Phoenix 操作spark

首先,打开datagrip,打开File->new->driver。这样你就可以用datagrip连接上phoenix了。然后,创建phoenix连接。进入Advanced。
原创
发布博客 2024.01.12 ·
675 阅读 ·
9 点赞 ·
1 评论 ·
8 收藏