(03数据生成模块)

1.目标数据

收集和分析的数据主要包括 页面数据 事件数据、曝光数据、启动数据和错误数
据。
 
2.页面
页面数据主要记录一个页面的用户访问情况,包括访问时间、停留时间、页面路径等信
息。
1 )所有页面 id 如下
 
 
2 )所有页面对象类型如下:
 
3 )所有来源类型如下:
 
3. 事件
事件数据主要记录应用内一个具体操作行为,包括操作类型、操作对象、操作对象描述
等信息
 
(1) 所有动作类型如下:
 
注:对于下单、支付等业务数据,可从业务数据库获取。
2 )所有动作目标类型如下:
 
 
4.曝光
 
曝光数据主要记录页面所曝光的内容,包括曝光对象,曝光类型等信息。
 
 
1 )所有曝光类型如下:
promotion(" 商品推广 "),
recommend(" 算法推荐商品 "),
query(" 查询结果商品 "),
activity(" 促销活动 ");
2) 所有曝光对象类型如下:
sku_id(" 商品 skuId"),
activity_id(" 活动 id");
 
5.启动
 
启动数据记录应用的启动信息。
 
1 )所有启动入口类型如下:
icon(" 图标 "),
notification(" 通知 "),
install(" 安装后启动 ");
 
6.错误
 
错误数据记录应用使用过程中的错误信息,包括 错误编号 错误信息
 
7. 数据埋点
目前主流的埋点方式,有 代码埋点(前端 / 后端)、可视化埋点 全埋点 三种。
代码埋点 是通过调用埋点 SDK 函数,在需要埋点的业务逻辑功能位置调用接口,上报
埋点数据。例如,我们对页面中的某个按钮埋点后,当这个按钮被点击时,可以在这个按钮
对应的 OnClick 函数里面调用 SDK 提供的数据发送接口,来发送数据。
可视化埋点 只需要研发人员集成采集 SDK ,不需要写埋点代码,业务人员就可以通过
访问分析平台的“圈选”功能,来“圈”出需要对用户行为进行捕捉的控件,并对该事件进
行命名。圈选完毕后,这些配置会同步到各个用户的终端上,由采集 SDK 按照圈选的配置
自动进行用户行为数据的采集和发送。
全埋点 是通过在产品中嵌入 SDK ,前端自动采集页面上的全部用户行为事件,上报埋
点数据,相当于做了一个统一的埋点。然后再通过界面配置哪些数据需要在系统里面进行分
析。
 
8. 埋点数据日志结构
 
我们的日志结构大致可分为两类,一是普通页面埋点日志,二是启动日志。
普通页面日志结构如下,每条日志包含了,当前页面的 页面信息 ,所有 事件(动作)
所有 曝光信息 以及 错误信息 。除此之外,还包含了一系列 公共信息 ,包括设备信息,地理位
置,应用信息等,即下边的 common 字段。
1 )普通页面埋点日志格式
 
 
2.启动日志格式
 
启动日志结构相对简单,主要包含公共信息,启动信息和错误信息。
 
9. 埋点数据上报时机
埋点数据上报时机包括两种方式。
方式一,在离开该页面时,上传在这个页面产生的所有数据(页面、事件、曝光、错误
等)。优点,批处理,减少了服务器接收数据压力。缺点,不是特别及时。
方式二,每个事件、动作、错误等,产生后,立即发送。优点,响应及时。缺点,对服
务器接收数据压力比较大。
 
 
10.服务器准备和jdk准备(省略)
11.模拟数据
 
1 使用说明
1 )将 application.properties gmall2020-mock-log-2020-05-10.jar path.json logback.xml
上传到 hadoop102 /opt/module/applog 目录下
1 )创建 applog 路径
[atguigu@hadoop102 module]$ mkdir /opt/module/applog
2 )上传文件
2)配置文件
 
1 application.properteis 文件
可以根据需求生成对应日期的用户行为日志。
[atguigu@hadoop102 applog]$ vim application.properties
修改如下内容
 
(2) path.json ,该文件用来配置访问路径
根据需求,可以灵活配置用户点击路径。
 
 
3) logback 配置文件
 
可配置日志生成路径,修改内容如下
 
3)生成日志
1 )进入到 /opt/module/applog 路径,执行以下命令
 
[atguigu@hadoop102 applog]$ java -jar gmall2020-mock-log-2020- 05-10.jar
 
2 )在 /opt/module/applog/log 目录下查看生成日志
 
[atguigu@hadoop102 log]$ ll
 
4. 集群日志生成脚本
hadoop102 /home/atguigu 目录下创建 bin 目录,这样脚本可以在服务器的任何目
录执行。
[atguigu@hadoop102 ~]$ echo $PATH
/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/atguig
u/.local/bin: /home/atguigu/bin
1 )在 /home/atguigu/bin 目录下创建脚本 lg.sh
 
[atguigu@hadoop102 bin]$ vim lg.sh
2 )在脚本中编写如下内容
 
注:
1 /opt/module/applog/ jar 包及配置文件所在路径
2 /dev/null 代表 linux 的空设备文件,所有往这个文件里面写入的内容都会丢失,俗
称“黑洞”。
标准输入 0 :从键盘获得输入 /proc/self/fd/0
标准输出 1 :输出到屏幕(即控制台) /proc/self/fd/1
错误输出 2 :输出到屏幕(即控制台) /proc/self/fd/2
3 )修改脚本执行权限
[atguigu@hadoop102 bin]$ chmod u+x lg.sh
4 )将 jar 包及配置文件上传至 hadoop103 /opt/module/applog/ 路径
5 )启动脚本
[atguigu@hadoop102 module]$ lg.sh
6 )分别在 hadoop102 hadoop103 /opt/module/applog/log 目录上查看生成的数据
[atguigu@hadoop102 logs]$ ls
app.2020-06-14.log
[atguigu@hadoop103 logs]$ ls
app.2020-06-14.log
 
 
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据开发工程师-宋权

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值