数据湖构建DLF数据探索快速入门-淘宝用户行为分析

简介

本教程通过使⽤数据湖构建(DLF)产品对于淘宝⽤户⾏为样例数据的分析,介绍DLF产品的数据发现和数据探索功能。教程内容包括:1. 服务开通:开通阿⾥云账号及DLF/OSS相关服务2. 样例数据集下载和导⼊:下载样例数据(csv⽂件),并上传⾄OSS3. DLF数据发现:使⽤DLF⾃动识别⽂件Schema并创建元数据表4. DLF数据探索:使⽤DLF数据探索,对⽤户⾏为进⾏分析,包括⽤户活跃度、漏⽃模型等

数据说明

本次测试的数据集来⾃阿⾥云天池⽐赛中使⽤的淘宝⽤户⾏为数据集,为了提⾼性能,我们做了⼀定的裁剪。数据集中以csv的格式存储了⽤户⾏为及商品样例数据。数据范围:2014年12⽉1⽇ - 2014年12⽉7⽇数据格式:

开通DLF和OSS服务(如已开通,直接跳转⾄第⼆步)

1.1 登录阿⾥云账号,点击进⼊DLF控制台⻚⾯

1.2 开通DLF及其依赖OSS服务,并完成授权。(如果已开通可直接跳过)

若之前未开通过DLF服务,会提示⽤户开通服务。点击“开通服务”,进⼊服务开通⻚⾯。
在这里插入图片描述
开通服务后,返回DLF控制台⻚⾯。会提示开通OSS服务,以及授予DLF访问依赖数据源的权限。点击按 钮完成OSS开通及授权。回到DLF控制台⻚⾯,点击刷新检查状态。⻚⾯⾃动跳转⾄DLF控制台主⻚⾯。

在这里插入图片描述
1.3 开通完成后,进⼊DLF控制台主⻚:

在这里插入图片描述

在OSS中导⼊需要分析的数据

2.1 点击链接,下载样例代码⾄本地磁盘。

解压后得到⽂件夹:user_behavior_data,包含item和user个⽂件夹,⾥⾯分别包含了各⾃的csv数据⽂ 件。本次分析主要集中在user⽂件中,数据内容如下。
在这里插入图片描述
2.2 将⽂件上传⾄OSS 进⼊OSS控制台,上传⽂件使⽤已有的Bucket,或创建新的Bucket。
在这里插入图片描述

上传解压后的user_behavior_data⽂件夹。上传后⽬录结构如下所示,item和user为两个表的数据⽂件夹。
在这里插入图片描述

在DLF上抽取元数据

3.1 创建元数据表
DLF中元数据库可以理解为在关系型数据库中的Database,其下⼀级为Table。

DLF控制台中,进⼊元数据库⻚⾯,创建元数据库。
在这里插入图片描述
填⼊数据库名称。并选择刚才存有⽤户⾏为分析的
在这里插入图片描述
如下图所示,元数据库创建成功。

在这里插入图片描述
3.2 发现OSS⽂件中的元数据表信息

进⼊DLF元数据抽取⻚⾯,点击“新建抽取任务”
在这里插入图片描述
填写数据源相关配置,点击下⼀步
在这里插入图片描述
选择过程中需要⽤到的RAM⻆⾊,默认为开通阶段已经授权的“AliyunDLFWorkFlowDefaultRole”。运⾏模式 选择“⼿动执⾏”。抽取策略选择“快速模式”以最快的速度完成元数据发现。

在这里插入图片描述
核对信息后,点击“保存并⽴即执⾏”。

在这里插入图片描述
系统会跳转到元数据抽取列表⻚⾯,新建的任务开始创建并⾃动运⾏。

在这里插入图片描述
约10秒后任务运⾏完成。约10秒后任务运⾏完成。⿏标移到状态栏的问号图标,会看到已经成功创建了两张元数据表。
在这里插入图片描述
点击浮层中的“元数据库”链接,可直接查看该库中相关的表信息。

在这里插入图片描述
点击浮层中的“元数据库”链接,可直接查看该库中相关的表信息。
在这里插入图片描述

点击表详情,查看并确认抽取出来的表结构是否符合预期。
在这里插入图片描述

⾄此,我们通过DLF⾃动发现数据湖CSV⽂件Schema的过程已经完成。下⼀步我们开始针对数据湖内的数 据做分析。

⽤户⾏为数据分析

4.1 数据分析概述
在DLF控制台⻚⾯,点击菜单“数据探索”-“Spark SQL”,进⼊数据探索页面。
在这里插入图片描述
数据分析的过程主要分为三步:

  1. 预览并检查数据信息。

  2. 简单的数据清洗。

  3. 进⾏⽤户活跃度、漏⽃模型和商品热度分析。

4.2 预览并检查数据
在查询框输⼊下⾯的语句,查看⽂件中的数据信息。

-- 预览数据

select * from `dlf_demo ` . ` user ` limit 10;

select * from `dlf_demo ` . `item ` limit 10;

-- ⽤户数 17970

select COUNT(DISTINCT user_id) from `dlf_demo ` . ` user ` ;

-- 商品数 422858

select COUNT(DISTINCT item_id) from `dlf_demo ` . `item ` ;

-- ⾏为记录数 746024

select COUNT(*) from `dlf_demo ` . ` user ` ;

数据内容如下:

在这里插入图片描述
4.3 数据预处理
我们对原始数据进⾏⼀定的处理,已提⾼数据的可读性,并提⾼分析的性能。 将behavior_type修改成更好理解的字符串信息;将⽇志+时间的格式打平到两个单独的列,再加上周信 息,便于分别做⽇期和⼩时级别的分析;过滤掉不必要的字段。并将数据存⼊新表user_log,表格式为 Parquet,按⽇期分区。后续我们会基于新表做⽤户⾏为分析。

-- 数据转换 耗时约40秒-- 创建新表user_log,parquet格式,按⽇期分区

 -- 导⼊数据,拆分⽇期和⼩时,并将behavoior转换成可读性更好的值 

-- 1-click; 2-collect; 3-cart; 4-pay

create table `dlf_demo ` . ` user_log ` 

USING PARQUET 

PARTITIONED BY (date) 

as select 

    user_id, 

    item_id, 

    CASE

     WHEN behavior_type = 1 THEN 'click' 

    WHEN behavior_type = 2 THEN 'collect' 

    WHEN behavior_type = 3 THEN 'cart'

     WHEN behavior_type = 4 THEN 'pay' 

END as behavior, 

item_category, 

time, 

date_format(time, 'yyyy-MM-dd') as date, 

date_format(time, 'H') as hour,

 date_format(time, 'u') as day_of_week 

from `dlf_demo ` . ` user ` ;

-- 查看运⾏后的数据

select * from `dlf_demo ` . ` user_log ` limit 10;

4.4 ⽤户⾏为分析
⾸先,我们基于漏⽃模型,对所有⽤户从点击到加购/收藏到购买的转化情况。

– 漏⽃分析 耗时13秒

SELECT behavior, COUNT(*) AS total FROM `dlf_demo ` . ` user_log ` GROUP BY behavior ORDER BY total DESC

结果如下:

在这里插入图片描述
然后我们⼀周内每天的⽤户⾏为做统计分析

-- ⽤户⾏为分析 耗时 14秒

SELECT date, day_of_week

COUNT(DISTINCT(user_id)) as uv, 

SUM(CASE WHEN behavior = 'click' THEN 1 ELSE 0 END) AS click, 

SUM(CASE WHEN behavior = 'cart' THEN 1 ELSE 0 END) AS cart, 

SUM(CASE WHEN behavior = 'collect' THEN 1 ELSE 0 END) AS collect,

 SUM(CASE WHEN behavior = 'pay' THEN 1 ELSE 0 END) AS pay 

FROM `dlf_demo ` . ` user_log ` 

GROUP BY date, day_of_week

ORDER BY date

分析结果如下:(由于数据集经过裁剪,对于⼯作⽇和⾮⼯作⽇的结果有失真)
在这里插入图片描述
最后,我们结合商品表,分析出数据集中最受欢迎的是个商品品类

-- 销售最多的品类 耗时 1分10秒

SELECT item.item_category, COUNT(*) AS times

FROM `dlf_demo ` . `item ` item

JOIN `dlf_demo ` . ` user_log ` log

ON item.item_id = log.item_id

WHERE log.behavior= 'pay'

GROUP BY item.item_category

ORDER BY times DESC

LIMIT 10;

结果如下:
在这里插入图片描述
4.5 下载分析结果
DLF提供将分析结果以CSV⽂件的形式下载的功能,启⽤该功能需要提前设置分析结果的保存路径(OSS 路径)。设置后,查询结果会被保存到该路径下。⽤户可以通过DLF⻚⾯上的“下载”按钮直接下载,也可 以直接通过OSS访问和下载该⽂件。 通过点击⻚⾯上的“路径设置”按钮进⾏设置。

在这里插入图片描述
可以选择已有⽂件夹或者新建⽂件夹。
在这里插入图片描述
4.6 保存SQL
通过点击“保存”按钮,可以将该次分析⽤到的sql保存,后续可以直接在“已存查询”中打开做进⼀步的调⽤ 及修改。
在这里插入图片描述

总结
本⽂通过⼀个简单的淘宝⽤户⾏为分析案例,介绍并实践了数据湖构建(DLF)产品的元数据发现和数据 探索功能。

有任何问题,或希望进⼀步探讨数据湖技术,欢迎扫码加⼊数据湖技术群,关注数据湖技术圈。

参考

天池 淘宝⽤户⾏为数据集:https://tianchi.aliyun.com/dataset/dataDetail?dataId=46

Spark SQL ⽇期类型转换:https://spark.apache.org/docs/latest/sql-ref-datetime-pattern.html

近期数据湖活动
2021年6月24日至7月2日工作日期间 完成该场景,即可领取polo衫一件。先到先得
领取地址:https://developer.aliyun.com/adc/series/activity/dlf

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
随着互联网的发展,数据的不断膨胀,从刚开始的关系型数据库到非关系型数据库,再到大数据技术,技术的不断演进最终是随着数据膨胀而不断改变,最初的数据仓库能解决我们的问题,但是随着时代发展,企业已经不满足于数据仓库,希望有更强大的技术来支撑数据的存储,包括结构化,非结构化的数据等,希望能够积累企业的数据,从中挖掘出更大的价值。基于这个背景,数据湖的技术应运而生。本课程基于真实的企业数据湖案例进行讲解,结合业务实现数据湖平台,让大家在实践中理解和掌握数据湖技术,未来数据湖的需求也会不断加大,希望同学们抓住这个机遇。项目中将以热门的互联网电商业务场景为案例讲解,具体分析指标包含:流量分析,订单分析,用户行为分析,营销分析,广告分析等,能承载海量数据的实时分析,数据分析涵盖全端(PC、移动、小程序)应用。Apache Hudi代表Hadoop Upserts anD Incrementals,管理大型分析数据集在HDFS上的存储。Hudi的主要目的是高效减少摄取过程中的数据延迟。Hudi的出现解决了现有hadoop体系的几个问题:1、HDFS的可伸缩性限制 2、需要在Hadoop中更快地呈现数据 3、没有直接支持对现有数据的更新和删除 4、快速的ETL和建模 5、要检索所有更新的记录,无论这些更新是添加到最近日期分区的新记录还是对旧数据的更新,Hudi都允许用户使用最后一个检查点时间戳,此过程不用执行扫描整个源表的查询。 本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0、HudiClickHouseHadoop2.7.5 Hbase2.2.6Kafka2.1.0 Hive2.2.0HDFS、MapReduceSpark、ZookeeperBinlog、Canal、MySQLSpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASEVue.js、Nodejs、HighchartsLinux Shell编程课程亮点: 1.与企业接轨、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink4.Flink join 实战 5.Hudi数据湖技术6.集成指标明细查询 7.主流微服务后端系统 8.数据库实时同步解决方案 9.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 10.集成SpringCloud实现统一整合方案 11.互联网大数据企业热门技术栈 12.支持海量数据的实时分析 13.支持全端实时数据分析 14.全程代码实操,提供全部代码和资料 15.提供答疑和提供企业技术方案咨询企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。  
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值