huchao7
码龄3年
关注
提问 私信
  • 博客:96,182
    96,182
    总访问量
  • 95
    原创
  • 356,689
    排名
  • 148
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:江苏省
  • 加入CSDN时间: 2021-08-19
博客简介:

Huc673619的博客

查看详细资料
个人成就
  • 获得37次点赞
  • 内容获得5次评论
  • 获得81次收藏
  • 代码片获得728次分享
创作历程
  • 3篇
    2023年
  • 6篇
    2022年
  • 86篇
    2021年
成就勋章
TA的专栏
  • 笔记
    90篇
  • 数据库函数
    3篇
  • Oracle表的执行语句
    1篇
兴趣领域 设置
  • 大数据
    hadoophivestormsparketl
创作活动更多

超级创作者激励计划

万元现金补贴,高额收益分成,专属VIP内容创作者流量扶持,等你加入!

去参加
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

在 Sublime Text 4 for macOS 中使用多个光标

在 Sublime Text 4 for macOS 中使用多个光标仅使用触控板的情况下怎么实现鼠标中键呢
原创
发布博客 2023.12.04 ·
822 阅读 ·
0 点赞 ·
1 评论 ·
1 收藏

在mac中删除本地 Maven 仓库中所有的 .lastUpdated 文件

删除本地 Maven 仓库中所有的 .lastUpdated 文件
原创
发布博客 2023.11.30 ·
1074 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

REGEXP_REPLACE() 函数,替换字符串中特定字符

【代码】REGEXP_REPLACE() 函数,替换字符串中特定字符。
原创
发布博客 2023.01.10 ·
1062 阅读 ·
1 点赞 ·
1 评论 ·
1 收藏

Infa报错ORA-01891: Datetime/Interval internal error

Infa
原创
发布博客 2022.11.03 ·
258 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

数组去重方法

数组去重
原创
发布博客 2022.08.31 ·
179 阅读 ·
0 点赞 ·
2 评论 ·
0 收藏

sql中将其他数据类型转为string

Oracle sql语法
原创
发布博客 2022.08.19 ·
2757 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Oracle中delete和update语法

Oracle中的delete和update语法
原创
发布博客 2022.07.18 ·
595 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Oracle中timestamp格式转换

timestamp格式转换
原创
发布博客 2022.07.12 ·
1366 阅读 ·
0 点赞 ·
1 评论 ·
0 收藏

时间工具类

package com.huc.utils;import java.time.*;import java.time.format.DateTimeFormatter;import java.util.Date;/** * LocalDate 年月日 * LocalTime 时分秒 * LocalDateTime 年月日 时分秒 */public class DateTimeUtil { private final static DateTimeFormatter for
原创
发布博客 2022.03.27 ·
410 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SpringBoot中常见注解@Controller@ResponseBody@RestController@RequestMapping@RequestParam

package com.huc.demo.controller;import org.springframework.web.bind.annotation.RequestMapping;import org.springframework.web.bind.annotation.RequestParam;import org.springframework.web.bind.annotation.RestController;//@Controller// 将类标识为Controller层
原创
发布博客 2021.12.01 ·
488 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

SQL中求两日期的天数差值 DATEDIFF()

select DATEDIFF(“2020-12-10”,“2020-12-11”)结果为:-1select DATEDIFF(“2020-12-12”,“2020-12-11”)结果为:1
原创
发布博客 2021.11.05 ·
1786 阅读 ·
1 点赞 ·
0 评论 ·
1 收藏

Spark SQL中DataFrame和DataSet之间相互转换

package com.huc.sparkSqlimport org.apache.spark.SparkConfimport org.apache.spark.rdd.RDDimport org.apache.spark.sql.{DataFrame, Dataset, SparkSession}object Test04_DSAndDF { def main(args: Array[String]): Unit = { // 1. 创建sparkSession配置对象 v
原创
发布博客 2021.11.04 ·
1288 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Spark SQL中RDD和DataSet之间相互转换

package com.huc.sparkSqlimport org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.rdd.RDDimport org.apache.spark.sql.{DataFrame, Dataset, SparkSession}/** * 1.RDD 转换为DataSet * RDD.map{x=>User(x._1,x._2)}.toDS() * SparkSQL 能够自动将包含
原创
发布博客 2021.11.04 ·
1523 阅读 ·
1 点赞 ·
0 评论 ·
2 收藏

SparkSQL中RDD和DF之间相互转换

package com.huc.sparkSqlimport org.apache.spark.rdd.RDDimport org.apache.spark.sql.{DataFrame, Row, SparkSession}import org.apache.spark.{SparkConf, SparkContext}/** * 1.RDD 转换为DataFrame * 手动转换:RDD.toDF("列名1","列名2") * 通过样例类反射转换:UserRDD.map{x=>U
原创
发布博客 2021.11.04 ·
2459 阅读 ·
1 点赞 ·
0 评论 ·
6 收藏

SparkSQL中自定义函数之UDAF

package com.huc.sparkSqlimport org.apache.spark.SparkConfimport org.apache.spark.sql.expressions.Aggregatorimport org.apache.spark.sql.{DataFrame, Encoder, Encoders, SparkSession, functions}object Test07_UDAF { def main(args: Array[String]): Unit =
原创
发布博客 2021.11.04 ·
302 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SparkSQL中自定义函数之UDF

package com.huc.sparkSqlimport org.apache.spark.SparkConfimport org.apache.spark.sql.{DataFrame, SparkSession}object Test06_CustomUDF { def main(args: Array[String]): Unit = { // 1. 创建sparkSession配置对象 val conf: SparkConf = new SparkConf().se
原创
发布博客 2021.11.04 ·
211 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SparkSQL数据的保存

package com.huc.sparkSqlimport org.apache.spark.{SPARK_BRANCH, SparkConf}import org.apache.spark.sql.{DataFrame, DataFrameReader, SaveMode, SparkSession}object Test10_Write { def main(args: Array[String]): Unit = { // 1. 创建sparkSession配置对象 v
原创
发布博客 2021.11.04 ·
449 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

SparkSQL数据的加载

package com.huc.sparkSqlimport org.apache.spark.SparkConfimport org.apache.spark.sql.{DataFrame, DataFrameReader, SparkSession}object Test09_Read { def main(args: Array[String]): Unit = { // 1. 创建sparkSession配置对象 val conf: SparkConf = new Sp
原创
发布博客 2021.11.04 ·
206 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

spark中使用Scala来写自定义分区器

自定义分区器HashPartitioner源码解读: /*class HashPartitioner(partitions: Int) extends Partitioner { // 传进来的分区个数必须是大于等于0的,不然它会报错 require(partitions >= 0, s"Number of partitions ($partitions) cannot be negative.") // 重写分区器的抽象方法 // 记录它有多少个分区 就是外面
原创
发布博客 2021.10.30 ·
505 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

combineByKey()转换结构后分区内和分区间操作

1)函数签名:def combineByKey[C](createCombiner: V => C,mergeValue: (C, V) => C,mergeCombiners: (C, C) =>C): RDD[(K, C)](1)createCombiner(转换数据的结构): combineByKey() 会遍历分区中的所有元素,因此每个元素的键要么还没有遇到过,要么就和之前的某个元素的键相同。如果这是一个新的元素,combineByKey()会使用一个叫作createCo
原创
发布博客 2021.10.30 ·
217 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏
加载更多