(32)功能 3:把每批次新增的当日日活信息保存到 ES 中

2.4.1 思路
将去重后的结果保存的 ElasticSearch 中,以便后续业务操作
2.4.2 代码实现
在 ES 中创建索引模板

 

 

 创建一个样例类,用于封装需要的日志数据(并不是所有采集到的字段都需要)

 在 MyESUtil 工具类中提供批量添加 bulkInsert 的方法

 

 在 DauApp 类中完成插入的功能

//=============== ES 中保存数据 ===================
filteredDStream.foreachRDD{
rdd=>{ // 获取 DS 中的 RDD
rdd.foreachPartition{ // 以分区为单位对 RDD 中的数据进行处理,方便批量插入
jsonItr=>{
val dauList: List [DauInfo] = jsonItr.map {
jsonObj => {
// 每次处理的是一个 json 对象 json 对象封装为样例类
val commonJsonObj: JSONObject = jsonObj.getJSONObject( "common" )
DauInfo (
commonJsonObj.getString( "mid" ) ,
commonJsonObj.getString( "uid" ) ,
commonJsonObj.getString( "ar" ) ,
commonJsonObj.getString( "ch" ) ,
commonJsonObj.getString( "vc" ) ,
jsonObj.getString( "dt" ) ,
jsonObj.getString( "hr" ) ,
"00" , // 分钟我们前面没有转换,默认 00
jsonObj.getLong( "ts" )
)
}
}.toList
// 对分区的数据进行批量处理
// 获取当前日志字符串
val dt: String = new SimpleDateFormat( "yyyy-MM-dd" ).format( new Date())
MyESUtil. bulkInsert (dauList , "gmall2020_dau_info_" + dt)
}
}
}
}
2.4.3 测试
启动 Zookeeper
启动 Kafka
启动 logger.sh(日志处理服务-Nginx 和 SpringBoot 程序)
启动 Redis,清空 Redis 中所有数据
127.0.0.1:6379> FLUSHALL
Idea 中运行程序
运行模拟生成日志的 jar
注意:因为涉及 classpath 环境变量,要切换到 jar 包所在目录下执行
查看输出效果
控制台

ES

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据开发工程师-宋权

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值