李的随笔
文章平均质量分 53
sour_LI
眩晕的每一天
展开
-
在DataGrip中,sparkSQL分析数据导入mysql
简单讲就是创建临时表或者视图,把需要的字段映射进mysql。中间细节有点忘了,行不通的话,想问的评论或者私信问我,有时间就回。全是代码,cv替换成你们自己的就行。涉及到业务,中间删改了的,可能有点问题,自己看着改把。原创 2024-01-12 17:06:23 · 384 阅读 · 1 评论 -
xslx表格文件采集到hdfs流程&hdfs数据 load到hive表
值得注意的是脚本内容指定了一个json文件,如果后面需要同步其他任务,记得修改相关配置;后端启动hive --service metastore:nohup hive --service metastore > /dev/null 2>&1 &python datax/bin/datax.py json文件路径/job.json。iconv -f gbk -t UTF-8 目标csv文件 > 生成新csv文件。可以查看文件现在的编码格式(编码格式不匹配会导致文件内中文乱码)。),按照需求配置json文件。原创 2024-01-12 16:51:45 · 1044 阅读 · 0 评论 -
配置spark on hive,后续可以使用DataGrip连接spark编写sparkSQL
使用DataGrip连接spark编写sparkSQL原创 2024-01-12 16:39:30 · 1247 阅读 · 0 评论 -
DataGrip连接Phoenix 操作spark
首先,打开datagrip,打开File->new->driver。这样你就可以用datagrip连接上phoenix了。然后,创建phoenix连接。进入Advanced。原创 2024-01-12 16:12:58 · 620 阅读 · 1 评论