zhanglin200508的专栏

技术改变生活

排序:
默认
按更新时间
按访问量

c++指针实现2数交换

#include #include void main(){ /*int a, *b; b = &a; int hj = 10; int *p; p = &hj; printf("%d", p);*/ int a, b; scanf(&qu...

2016-11-11 07:36:46

阅读数:173

评论数:0

写一个函数求2个数的之和,要求在函数体内不得使用+-*/

写一个函数求2个数的之和,要求在函数体内不得使用+-*/ int sum = a^b; int jinwei = (a & b) reutrn add(sum, jinwei);

2016-10-19 00:34:51

阅读数:181

评论数:0

C语言中反码和补码

unsigned char a1 = 129; char a = 129; char b = 128; char c = -1; printf("\n,%d,%d,%d,%d", a, b,c,a1 ); printf("\n"); printf...

2016-10-18 23:38:00

阅读数:299

评论数:0

C语言常量和变量

c语言中常量和变量在内存中存放: 常量就是计算机内存中不变的数据 变量就是计算机内存里需要并且经常改变的数据 %x 按照16进制 %d按照10进制 定义常量2种: 1、#define Pai 3.14 2、const float pai 3.14

2016-10-15 15:50:16

阅读数:244

评论数:0

day85-基于HDFS的SparkStreaming

JavaStreamingContext 类

2016-09-13 08:06:41

阅读数:222

评论数:0

day83-透彻讲解使用Java方式实战Spark Streaming开发

import java.util.Arrays; import org.apache.spark.SparkConf; import org.apache.spark.api.java.function.FlatMapFunction; import org.apache.spark.api.ja...

2016-09-11 16:11:47

阅读数:4228

评论数:0

HBase 实现二级索引

MapReduce方式创建二级索引 使用整合MapReduce的方式创建hbase索引。主要的流程如下: 1.1扫描输入表,使用hbase继承类TableMapper 1.2获取rowkey和指定字段名称和字段值 1.3创建Put实例, value=rowkey, rowkey=colum...

2016-09-06 18:08:10

阅读数:644

评论数:0

SparkSQL-day81

SparkSQL

2016-09-01 09:49:53

阅读数:135

评论数:0

day80sparkSQL网站搜索综合实例

目的:找出搜索平台上用户明天搜索排名前五名的产品 1、原始的ETL过滤数据后产生目标数据 广播的原理,过滤是发生在work 2、对过滤后的目标数据进行指定条件的查询,查询条件又可能非常复杂(进行广播(广播过滤条件)),进行RDD的filter的算子; 3、对于商品时分为种类的,我们在得出最终结果之...

2016-08-30 01:06:10

阅读数:349

评论数:0

day84:StreamContext、DStream、receiver

一下内容来源于DT大数据梦工厂: StreamingContext * AJava-friendly version of [[org.apache.spark.streaming.StreamingContext]] which is the main * entry point for ...

2016-06-10 16:54:51

阅读数:441

评论数:0

day71:Spark SQL窗口函数解密与实战

Spark SQL窗口函数解密与实战sparkSQL 窗口函数解析sparkSQL窗口函数实战 package cn.db.scala.sparksql import org.apache.spark.{SparkConf, SparkContext} import org.apache.sp...

2016-06-05 23:35:35

阅读数:328

评论数:0

day70:Spark SQL内置函数解密与实战

Spark on hive: 将hive的元数据当作一个数据源 Hive on spark:(未来一个趋势) Hive 本来的计算框架是mr,换成spark 来计算 目前企业及大数据spark开发的时候绝大多数情况下采用hive 作为数据仓库的;spark提供了Hive的支持功能,spar...

2016-06-05 17:19:06

阅读数:613

评论数:0

day65-Spark SQL下Parquet深入进阶

DT大数据梦工厂联系方式: 新浪微博:www.weibo.com/ilovepains/ 微信公众号:DT_Spark 博客:http://.blog.sina.com.cn/ilovepains   SparkSQL 下的Parquet 序列化 SparkSql 下的Parquet源...

2016-05-16 06:43:43

阅读数:285

评论数:0

day64 Spark SQL下Parquet的数据切分和压缩内幕详解

DT大数据梦工厂联系方式: 新浪微博:www.weibo.com/ilovepains/ 微信公众号:DT_Spark 博客:http://.blog.sina.com.cn/ilovepains   Parquest类的操作   ParquestRelation源码:   pu...

2016-05-16 06:42:13

阅读数:477

评论数:0

day63-Spark SQL下Parquet内幕深度解密

DT大数据梦工厂联系方式:新浪微博:www.weibo.com/ilovepains/微信公众号:DT_Spark博客:http://.blog.sina.com.cn/ilovepains一:sparkSQL 下的Parquet意义再思考存储空间包括:内存和磁盘,计算方面如果说HDFS是大数据时...

2016-05-08 13:40:33

阅读数:680

评论数:0

day62-Spark SQL下的Parquet使用最佳实践和代码实战

一下内容来源于DT大数据梦工厂: DT大数据梦工厂联系方式: 新浪微博:www.weibo.com/ilovepains/ 微信公众号:DT_Spark 博客:http://.blog.sina.com.cn/ilovepains SparkSQL下的Pa...

2016-05-08 13:34:46

阅读数:514

评论数:0

day61-Spark SQL数据加载和保存内幕深度解密实战

Spark SQL加载数据 SparkSQl 数据输入输入输出主要是DataFrame,DataFrame提供了一些通用的load和save操作。 通过load可以创建出DataFrame;通过save可以将DataFrame数据保存到文件中或者说以具体的格式来指明要读取的文件是什么格式或者输...

2016-05-08 13:13:32

阅读数:1477

评论数:0

使用Java实战RDD与Dataframe动态转换

import java.util.ArrayList; import java.util.List; import org.apache.spark.SparkConf; import org.apache.spark.api.java.JavaRDD; import org.apache.sp...

2016-05-07 22:49:29

阅读数:6857

评论数:4

day56-Spark SQL和DataFrame的本质

以下内容来源于DT大数据梦工厂: SparkSQL 于DtaFrame DataFrame与RDD 企业实践 一、    SparkSql于DataFrame sparkSql之所以是出了spark core以外最大的和最受欢迎组件原因是:1、处理各种存储介质和各种格式的数据(可以方便扩展...

2016-05-01 15:37:53

阅读数:269

评论数:0

day55-hive实战:

一下内容来源于: DT大数据梦工厂联系方式: 新浪微博:www.weibo.com/ilovepains/ 微信公众号:DT_Spark 博客:http://.blog.sina.com.cn/ilovepains

2016-04-30 23:18:32

阅读数:148

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭