§蜗牛§
码龄10年
关注
提问 私信
  • 博客:5,593
    5,593
    总访问量
  • 3
    原创
  • 1,150,854
    排名
  • 1
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:北京市
  • 加入CSDN时间: 2015-07-27
博客简介:

syl_1264946104的博客

查看详细资料
个人成就
  • 获得6次点赞
  • 内容获得1次评论
  • 获得12次收藏
创作历程
  • 1篇
    2019年
  • 4篇
    2018年
成就勋章
TA的专栏
  • spark
    4篇
  • linux_shell
  • 平时积累
    1篇
兴趣领域 设置
  • 大数据
    hadoophivespark
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

impala parquet实现分桶查询

由于impala是没有分桶表的,但是会遇同一个partition中数据量非常巨大,但是某些查询只需要取出个别记录,就需要从海量数据中查询出一两条数据,这样就会造成资源浪费。于是就需要有一种机制,像hive表中可以实现分桶查询:create table teacher(id int,name string) clustered by (id) into 4 buckets但是impala不支...
原创
发布博客 2019.05.06 ·
2125 阅读 ·
4 点赞 ·
0 评论 ·
5 收藏

spark 两种内存管理模式原理、源码以及conf参数调节

spark 两种内存管理模式原理、源码以及conf参数调节写在前面:两种内存管理模式都将内存分为storge内存区域和execution内存区域,storge内存区域主要负责持久化RDD数据、和broadcast数据(广播数据),execution内存区域主要负责缓存在shuffle过程中中间数据。一、静态内存管理静态内存管理是saprk1.6版本之前所用的内存管理模式,spark以后的版...
原创
发布博客 2018.11.29 ·
772 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

spark任务执行过程,源码分析和on Yarn调度过程

一、spark源码分析执行流程当spark遇到action类算子,开始调起任务1.Action类型的算子触发job的执行。源码中调用了SparkContext的runJob()方法,根进源码发现底层调用的是DAGScheduler的runJob()方法。2.DAGScheduler会将我们的job按照宽窄依赖划分为一个个stage(每个stage根据RDD的Partition的个数决定tas...
转载
发布博客 2018.11.21 ·
1482 阅读 ·
1 点赞 ·
1 评论 ·
3 收藏

linux常见命令汇总

1、root用户无权限格式化namenodechown 777 /hadoop-2.7.1/bin/hdfs1、把文件夹压缩成压缩包tar -jcvf http_out_07.tar.bz2 ./http_out_07tar -zcvf output.tar.gz ./output2、查看当前目录下所有文件的大小ll -htotal 1.6Gdrwxr-xr-x 2 deepen...
原创
发布博客 2018.10.31 ·
974 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

谈谈RDD、DataFrame、Dataset的区别和各自的优势

在spark中,RDD、DataFrame、Dataset是最常用的数据类型,本博文给出笔者在使用的过程中体会到的区别和各自的优势共性:1、RDD、DataFrame、Dataset全都是spark平台下的分布式弹性数据集,为处理超大型数据提供便利2、三者都有惰性机制,在进行创建、转换,如map方法时,不会立即执行,只有在遇到Action如foreach时,三者才会开始遍历运算,极端情况下,...
转载
发布博客 2018.10.31 ·
237 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏