自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 处理器工作模式

2. 分组寄存器R8-R14: 他们所访问的物理寄存器取决与当前处理器的工作模式。1. 未分组的寄存器R0-R7,未分组表示R0-R7所对应的物理寄存器地址相同。ARM共有37个32位的寄存器,其中31个是通用寄存器,6个是状态寄存器。大端序:字数据的高字节存储在低地址中,字数据的低字节存储在高地址中。小端序:字数据的高字节存储在高地址中,字数据的低字节存储在低地址中。1.ARM状态 :ARM处理器执行32位字对齐的ARM指令集。

2023-11-15 15:37:09 82

原创 微信小程序云开发

1.难点1.1 开始的时候不是很明白微信开发一些限制,如:(wx.request的限制http不能用)1.2 view text 微信小程序和vscode 一起用的磨合期长达一个星期才用习惯 缓存化代码优化考虑不全2.效果...

2022-05-25 19:25:45 150

原创 vue-cli echarts-gl

echarts4.xecharts-gl1.1vue-cli5.x学情分析可视化大屏内容不难,贵在坚持故不积跬步,无以至千里;不积小流,无以成江海。下一阶段微信小程序私聊 :发项目我的宣言是:前端,后端,测试,运维 我要 (毕竟我是一个成年人啊)加油...

2022-05-05 21:34:20 594

原创 echarts+html+css+弹性布局

<!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <meta http-equiv="X-UA-Compatible" content="IE=edge"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <title>D.

2022-03-13 22:31:14 1045

原创 SparkSql 动态插入hive分区表

在编写代码前要有几个前提条件1.在hive里创建hive分区表并指定分区字段import org.apache.spark.sql.SparkSessionimport org.apache.spark.SparkConfobject jjjjj { def main(args: Array[String]): Unit = { val conf = new SparkConf().setAppName("jjjjj").setMaster("local") val spa

2021-12-09 14:37:18 2059

原创 spark sql 内置的常用的时间函数

1.时间的加减date_add 和 date_subdate_add(时间,int)#时间的加函数如:date_add('2020-10-10',10)得2020-10-19date_sub (时间,int) #时间的加函数如:date_add('2020-10-11',10)得2020-10-12.时间的比较dateiff(时间:时间) #比较出时间的差值 返回为int3.时间的转化3.1时间戳转化成格式时间from_unixtime(时间戳,'格式...

2021-12-06 11:59:23 3417

原创 在idea上链接hive 并将mysql上的数据抽取到hive表中

最近刚看spark的数据处理在数据抽取上分为增量和全量全量数据抽取把源系统所有数据复制到系统目标表同步方式就叫做—>全量增量数据增量抽取指的是只抽取前次抽取之后发生变化或者新增的数据这是全量数据抽取 def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("kks") val spark = SparkSession.b

2021-12-05 00:35:33 3654 9

原创 在 idea上用编写spark程序链接hive

在 idea上用编写spark程序链接hive在idea 上编写spark程序,pom文件上要包含hive依赖,网上大把,链接hive其实可以不用将hdfs,core等文件加入程序,直接在代码中声明 metastore服务的地址,和 hive在hdfs上的储存路径def main(args: Array[String]): Unit = { val conf = new SparkConf().setMaster("local").setAppName("kks") val spark =

2021-12-04 22:55:09 927 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除