Spark日志文件清洗及分析

该博客主要介绍了如何使用Spark进行日志文件的清洗,包括读取日志,切割数据,过滤无效记录,去重,以及数据清洗后的存储。接着,详细讲述了用户留存分析的过程,计算了次日留存率,涉及新增用户数和次日登录用户数的交集计算。
摘要由CSDN通过智能技术生成

1、数据清洗

  • 读入日志文件并转化为RDD[Row]类型
    • 按照Tab切割数据
    • 过滤掉字段数量少于8个的
  • 对数据进行清洗
    • 按照第一列和第二列对数据进行去重
    • 过滤掉状态码非200
    • 过滤掉event_time为空的数据
    • 将url按照”&”以及”=”切割
  • 保存数据
    • 将数据写入mysql表中
      在这里插入图片描述
      文件目录:D:\test\t\test.log,一条数据的结构如下:
2018-09-04T20:27:31+08:00	http://datacenter.bdqn.cn/logs/user?actionBegin=1536150451540&actionClient=Mozilla%2F5.0+%28Windows+NT+10.0%3B+WOW64%29+AppleWebKit%2F537.36+%28KHTML%2C+like+Gecko%29+Chrome%2F58.0.3029.110+Safari%2F537.36+SE+2.X+MetaSr+1.0&actionEnd=1536150451668&actionName=startEval&actionTest=0&actionType=3&actionValue=272090&clientType=001_kgc&examType=001&ifEquipment=web&isFromContinue=false&skillIdCount=0&skillLevel=0&testType=jineng&userSID=B842B843AE317425D53D0C567A903EF7.exam-tomcat-node3.exam-tomcat-node3&userUID=272090&userUIP=1.180.18.157	GET	200	192.168.168.64	-	-	Apache-HttpClient/4.1.2 (java 1.5)
import java.util.Properties

import org.apache.commons.lang.StringUtils
import org.apache.spark.sql.{
   Row, SparkSession}
import org.apache.spark.sql.types.{
   StringType, StructField, StructType}

object DataClear {
   
  def main(args: Array[String]): Unit = {
   
    val spark = SparkSession.builder()
      .master("local[1]")
      .appName("clearDemo")
      .getOrCreate()

    import spark.implicits._
    val sc = spark.sparkContext
    val linesRdd = sc.textFile("D:\\test\\t\\test.log")

    val rdd = linesRdd.map(x=>x.split("\t"))
      .filter(x=>x.length==8)
      .map(x=>Row(x(0).trim,x(1).trim,x(2).trim,x(3).trim,x(4).trim,x(5).trim,x(6).trim,x(7).trim))

    val schema = StructType(
      Array(
        StructField("event_time", StringType),
        StructField("url", StringType),
        StructField("method", StringType),
        StructField("status", StringType),
        StructField("sip", StringType),
        StructField("user_uip", StringType),
        StructField("action_prepend", StringType),
        StructField("action_client", StringType)
      )
    )

    val orgDF = spark.createDataFrame(rdd,schema)
    //orgDF.printSchema()
    
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值