自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 在DataGrip中,sparkSQL分析数据导入mysql

简单讲就是创建临时表或者视图,把需要的字段映射进mysql。中间细节有点忘了,行不通的话,想问的评论或者私信问我,有时间就回。全是代码,cv替换成你们自己的就行。涉及到业务,中间删改了的,可能有点问题,自己看着改把。

2024-01-12 17:06:23 355 1

原创 xslx表格文件采集到hdfs流程&hdfs数据 load到hive表

值得注意的是脚本内容指定了一个json文件,如果后面需要同步其他任务,记得修改相关配置;后端启动hive --service metastore:nohup hive --service metastore > /dev/null 2>&1 &python datax/bin/datax.py json文件路径/job.json。iconv -f gbk -t UTF-8 目标csv文件 > 生成新csv文件。可以查看文件现在的编码格式(编码格式不匹配会导致文件内中文乱码)。),按照需求配置json文件。

2024-01-12 16:51:45 1018

原创 配置spark on hive,后续可以使用DataGrip连接spark编写sparkSQL

使用DataGrip连接spark编写sparkSQL

2024-01-12 16:39:30 1187

原创 DataGrip连接Phoenix 操作spark

首先,打开datagrip,打开File->new->driver。这样你就可以用datagrip连接上phoenix了。然后,创建phoenix连接。进入Advanced。

2024-01-12 16:12:58 579 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除