qq_37597249
码龄8年
关注
提问 私信
  • 博客:46,308
    46,308
    总访问量
  • 8
    原创
  • 1,210,850
    排名
  • 2
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:广东省
  • 加入CSDN时间: 2017-02-21
博客简介:

qq_37597249的博客

查看详细资料
个人成就
  • 获得3次点赞
  • 内容获得5次评论
  • 获得12次收藏
创作历程
  • 1篇
    2020年
  • 7篇
    2018年
成就勋章
兴趣领域 设置
  • 大数据
    spark
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

spark on yarn 资源计算公式

一、spark on yarn 提交任务有两种模式1、cluster模式 :ApplicationMaster进程进行资源分配和executor的启动提交命令:--master yarn \--deploy-mode client \--driver-memory 5G \ applicationMaster 所在的容器分配的内存--driver-cores 5 \ a...
原创
发布博客 2020.01.16 ·
826 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Spark 2.X 读写 Oracel 代码实例 作者:刘大少

import org.apache.spark.sql.{SaveMode, SparkSession}import org.apache.spark.sql.jdbc.JdbcDialectsimport org.apache.spark.sql.jdbc._import org.apache.spark.sql.types._一、读Oracle 表// 参数自己传进来1、定...
原创
发布博客 2018.09.03 ·
246 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SPARK-UDF yyyy-MM-dd HH:mm:ss.SSS 类型转 秒+微秒的时间戳

session.udf.register("toMMS",(str:String) =>{ val sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss.SSS") val sdf2 = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss") var st ="" if(str.length>1...
原创
发布博客 2018.07.16 ·
2612 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

SPARK报错java.long.Exception……org.codehaus.commons.compiler.CompileException: File 'generated.java'

报错信息: java.util.concurrent.ExecutionException: java.lang.Exception: failed to compile: org.codehaus.commons.compiler.CompileException: File 'generated.java', Line 61, Column 30: Index expression of ...
原创
发布博客 2018.06.22 ·
6253 阅读 ·
0 点赞 ·
3 评论 ·
0 收藏

SparkSQL报错:org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:

错误信息:06/13/18 13:17:50  06/14/18 13:17:50  krbtgt/HADOOP.COM@HADOOP.COM18/06/13 13:17:59 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under S...
原创
发布博客 2018.06.13 ·
24318 阅读 ·
2 点赞 ·
2 评论 ·
1 收藏

Container killed by YARN for exceeding memory limits. 15.6 GB of 15.5 GB physical memory used. Consi

spark 报错 [Stage 45:(482 + 46) / 528][Stage 46:(64 + 148) / 528][Stage 55:>(27 + 0) / 528]18/06/07 16:07:11 WARN YarnSchedulerBackend$YarnSchedulerEndpoint: Container killed by YARN for exceedin...
原创
发布博客 2018.06.07 ·
3891 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏

关闭 centos7 的滴滴声

1.执行:vi /etc/inputrc    #set bell-style none 把这一行的#去掉2、执行:vi ~/.bashrc   添加:setterm –blength 03、执行:reboot 声音关闭
原创
发布博客 2018.06.01 ·
2769 阅读 ·
1 点赞 ·
0 评论 ·
5 收藏

spark 给hive表填加自增字段和UUID

直接操作表的时候用自增这个方式会报错因为spark over里必须有字段  在hive中使用    直接用SQL : create table table2Name as select row_number() over () as row_id,* from table1NameUUID主键:也可以操作表 也可以操作RDD 可以同时 这种在增加UUID之后必须cache 他会一直到触发a...
原创
发布博客 2018.06.01 ·
5393 阅读 ·
0 点赞 ·
0 评论 ·
2 收藏