基础
liuchangxus
这个作者很懒,什么都没留下…
展开
-
flume-kafka-flink的处理信息
flink接收kafka的数据信息 可连接flume及端口原创 2020-12-22 08:43:05 · 270 阅读 · 0 评论 -
flink的时间窗口和计数窗口
val env = StreamExecutionEnvironment.getExecutionEnvironment env.setParallelism(1) val inputdata: DataStream[String] = env.socketTextStream("hadoop102", 6666) //时间窗口 滚动窗口 10秒执行一次每次执行10以内的数据 数据执行不重叠 inputdata.map(p=>{ val s = p.split(",") (原创 2020-12-22 08:23:29 · 1136 阅读 · 0 评论 -
ES(elasticsearch)搜索引擎 - 配置整合
<dependency> <groupId>org.elasticsearch</groupId> <artifactId>elasticsearch</artifactId> <version>5.6.8</version> </dependency> <dependency> <groupId>org.elasticsearch.client&...原创 2020-10-17 10:34:14 · 376 阅读 · 0 评论 -
redis与kafka基础
初识Redis 一. 为什么在多线程并发情况下,以Redis实现的“自增ID工具”能保证ID按顺序自增长且不重复: 此处的自增ID工具用的是redis的增加score方法 , 每调用一次 , redis的key ‘id’ 就自增1 , 返回值为增加后的数值 , 故获取id的动作不会有重复值. /** * “自增ID工具” * @description: * @author: Jeff * @date: 2020年9月21日 * @return */ public Long getId(){原创 2020-09-28 00:01:38 · 182 阅读 · 0 评论