废话不多说,具体实现代码如下
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
import org.apache.spark.sql.Row
import org.apache.spark.sql.types.StructType
import org.apache.spark.sql.types.StringType
import org.apache.spark.sql.types.IntegerType
import org.apache.spark.sql.types.StructField
import org.apache.spark.sql.functions._
/**
*
*网站uv的统计
*
*/
object DailyUV {
def main(args: Array[String]): Unit = {
val conf = new SparkConf().setMaster("local").setAppName("DailyUV")
val sc = new SparkContext(conf)
[Spark应用]-- 实现uv统计(使用内置函数)
最新推荐文章于 2024-06-15 13:32:50 发布
本文展示了如何使用Spark SQL的内置函数countDistinct统计每日唯一用户(UV)。通过创建DataFrame,模拟用户访问日志数据,然后对数据进行分组并应用countDistinct函数,实现对用户ID的去重计数,最终输出每日的UV结果。
摘要由CSDN通过智能技术生成