数据分析的方法
1、搭建指标体系
前面讲到,要想了解企业的发展现状,就需要将各种业务数据收集起来,转化为各种指标,并最终汇聚成一个完整的指标体系。因为只有数据化,才能够相对客观。那么,什么样的指标体系才能准确反映企业的情况呢?这个问题我会在下一篇文章中详细解答。
指标体系中,通常使用的都是基础的统计方法,如求和、求平均、计数、去重计数、占比分析、留存率等,然后再叠加各种维度分组,形成一个庞大的指标树。
2、基于问题分析
除了搭建指标体系外,数据分析师工作的另一大工作内容是基于特定问题的分析,例如寻找最近一个季度成交额下滑的主要原因、分析日活用户会员转化率持续走低的主要因素等。这类问题相对复杂,可能一开始并没有清晰的方向,那么就需要借助一些分析手段,有目的性地探索分析。接下来我们会逐个来讲解下各个分析方法及其适用场景。
2.1 维度分解
维度分解是最常用的分析手段,当一个异常数据指标过于宏观时,可以通过对其多种维度的拆解分析,将其微观化。例如,遇到日活下降的问题,可以分析地区、应用版本、时段、渠道、系统版本、终端型号等维度的日活趋势,从而获取更加精细的数据洞察,寻找可能的影响因素。
这种方法通常用于一个比较大的问题且有些无从下手时,通过维度分解,先把指标拆细,然后再针对疑点继续追踪深挖。
2.2 漏斗分析
漏斗分析,又叫转化漏斗,顾名思义,就是将一个特定过程的多个步骤间的转化情况,以漏斗的形式展示出来,通过图形直观地发现流失最严重的环节,从而有针对性地去进行优化。
漏斗分析解决的是关于流程的问题,一切流程转化的问题都可以使用这个方法来直观地分析。
2.3 留存分析
留存分析是观察不同的用户特征、行为、活动刺激等对留存率的影响大小的一种分析方法。它的主要目标是找到影响用户留存的关键因素。因为,获取用户是有一定成本的,如果新获取的用户大部分都留不住,那么拉新的投入产出比就会很低。
因此,留存分析常用于如何提升用户留存率这类问题的分析中。
2.4 矩阵分析
矩阵分析,又叫象限分析,是借助二维或者三维坐标系,将要分析的几个对象的指标逐个填入坐标系的对应位置,从而完成合并归类的一种分析方法。例如,针对渠道拉新质量的分析,可以将每个渠道的新增用户数和活跃用户数填入二维坐标系中,如下图所示:
通过上图可以轻松地完成渠道归类,针对不同类别采取不同的优化策略。因此矩阵分析适合需要做简单归类的问题。考虑到前面提到的留存问题,你也可以把平均留存率这个指标放进来,成为一个三维的坐标系。
2.5 AB 测试分析
AB 测试分析,是通过将用户或者其他因素进行分组对照试验的方式,收集相关数据,并评估对比各方案的优劣。AB 测试分析,被认为是最科学的数据分析手段之一,因为它尽可能地排除了其他干扰因素,有成熟的统计学理论做支撑,而且试验结果一目了然。
2.6 其他分析方法
还有很多其他的分析方法,如相关性分析、聚类分析、行为轨迹分析等,各有自己的应用场景。篇幅有限,就不一一介绍了,在实际工作中,通常是将多种方法结合着使用,效果更好。
3、基于场景分析
数据驱动业务创新,多数情况下都是需要从现有业务数据中挖掘出有价值的信息,汇聚成对业务的认识知识,并进一步将知识应用到产品中去的智慧。从应用角度,可以分为两类,一是融入到现有产品业务中,提升服务能力,优化用户体验;二是基于分析结论,创造新的产品,新的业务。下面我举两个例子来说明下:
3.1 用户画像
大多数的公司,尤其是 ToC 的互联网公司,都会构建自己的用户画像。构建用户画像的目的和好处也是显而易见的,那就是可以提升用户体验,为用户提供更多个性化的服务。而用户画像的构建过程就是基于各种数据分析完成的。
3.2 商业智能
基于已有的业务数据,深入挖掘用户的使用习惯,从而开拓新业务的案例也是屡见不鲜。最知名的案例之一,就是 Netflix 公司基于用户的观影数据,深入挖掘用户的喜好,大胆预测了《纸牌屋》这部美剧的受欢迎程度,使得这部当时普遍不被主流媒体看好的政治题材作品,得以和广大观众见面,并取得最后的巨大成功。
数据分析的一般步骤
这一部分我们来讲解下,数据分析的一般步骤,这些步骤并不是要教你按部就班、教科书般一步不落地去这样做数据分析,而是告诉你一种思路,在你毫无头绪时,可以试着用这个步骤帮你找到思路。
主要步骤大致分为以下五步:
第一步,感知问题
这一步的目标是找到核心问题。有时可能同时接到好几个问题,在动手分析前,先要看下几个问题是不是有关联关系,相关的问题应该合并在一起分析,这样可以提升效率。有时你接收到的可能只是一个现象,你要把现象进行拆解,转化成要解释的问题,才能进行下一步的分析。举个例子,有人告诉你日活数据异常,这只是一个现象,不是一个问题。什么是数据异常呢?是指日活降了算异常,还是日活下降幅度过大算异常,还是日活趋势不符合历史规律算异常?一定要把现象转为具体的问题,才好进行下一步。
第二步,提出假说
这一步的目标是找到排查的方向。在一开始的阶段,可以尽可能地头脑风暴出,有可能相关的因素,然后根据每个因素的相关性或影响权重排列优先级,最后收敛到几个重要的因素上。这个过程中可以采用 MECE 法则,相互独立,完全穷尽,找出所有相关要素。
所谓的假说,就是一套解释模型,直白点说就是在逻辑上成立的,因素间相互影响的逻辑链的推断。这一步也是非常关键的,不能有太多要排查的点,不然效率非常低下,最后也会发现多数都是死胡同,白白浪费了工作量。另外,要先发散再收敛,不要一开始就凭经验确定几个点,这样可能会忽视掉新的因素带来的影响。
第三步,选择表征
数据分析界有句话广为流传,“一切不能被量化的,就无法被优化”。道理非常简单直白,无法用数据量化的,就没法评估是否被优化了。
这个阶段的目标是找到量化指标,通过数据来定位问题。量化的办法有很多,和具体的业务场景有很大的关系。举个例子,如果你要排查的问题是播放量下降过多,你提出的其中一个假说是,近期电影频道没有好的内容,可能导致用户找不到好看的电影,进而导致整体播放量下滑。那么,你至少要选取两个指标,一个是对比分析各频道节目播放量下滑比例和下降绝对值,看下电影频道是不是下降最突出的那个,二是电影频道播放量和总体播放量趋势的对比,看下电影频道和总体的数据趋势是否保持高度一致。
选取指标时,也不是越多越好,尽可能要收敛到重要的指标上,避免过于发散,耗费巨大人力。
第四步,收集数据
“巧妇难为无米之炊”,有思路没数据,也是白搭。不过,对于互联网公司来说,通常数据不是大问题,在目前国内还相对开放的环境下,数据收集通常都会在产品设计时就考虑进来了。不过,这里也要提醒一点是,不要受数据的限制,有时没有直接数据,但是可以通过一些其他的指标间接达到目的,也是可以的。
第五步,分析验证
有了前四步的准备,这一步就是顺水推舟的事情了。通常使用常规的数据统计方法结合前面讲到的几种数据分析方法都是可以解决大部分的数据分析问题。这里要强调的是,数据分析后得到的数据和结论,一定要经过验证,否则容易出错。验证的方法有很多种,首先是可以查看一下分析结果数据,查看是否存在疑点,如果有,就一定要找到原因;另外,也可以通过其他指标来侧面验证下结论,或者是基于结论做下简单推导,然后用数据验证推导后的结论是否正确。在没有更多数据的情况下,还有一种方法,就是把你的分析和推导过程讲给另一位分析师听,检验是否存在漏洞
————————————————
版权声明:本文为CSDN博主「小晓酱手记」的原创文章,遵循 CC 4.0 BY 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/sinat_26811377/article/details/102393701