app 里的 A_B 测试简介(1)

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

下面的表格列出了大部分的情景,可以帮助你确定要如何选择测试的版本。以我们假设的导航实验为例。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

“排除测试”这一列表示不参与测试的用户。他们的行为将不会有助于测试结果。我们看看谁是测试用户。

我们根据假设想要度量什么来选择情景 2 或者情景 3。如果仅与新功能有关(例如,如果新功能是需要 app 内购,则这个功能仅和 app 内购买收入相关),那么选择情景 2。如果假设要实现的新功能(例如,如果新功能是“最爱”机制,并且度量指标是用户参与度)与之前的东西(并且是可测量的)相关,则选择情景 3。

注意: 在接下来的部分中,为了简洁起见,我将使用情景 1。 同样的方法同样适用于情景 2 和情景 3,以“现有”和“新”版本这些称号代替“新 1”和“新 2”版本。

谁来测试

如果已知观察到的行为会因为假设外的某个因素发生变化 —— 例如,当假设仅考虑全球收入的影响时,已知行为会因居住国而异 —— 需要让该因素(单一国家)的值唯一,或者使用全体人口(所有国家)的代表性样本。

受控的代表性样本的大小也可以设定为总人口的百分比。例如,测试样本大小是总人口的 10%,其中 5% 收到版本 A,5% 收到版本 B,其余 90% 排除在测试之外。也就是 90% 的用户只会看到现有的功能,并不会看到任何新功能,他们的行为被排除在测试指标之外。

要测试多久

最长时间: 用户的行为通常会随着时间,这周的第几天,月份,季节等类似因素而变化。为了让版本之间体现出足够的差异,您需要平衡统计显着性和业务的需求。(您的业务可能无法等到你有足够的数据可以完整的统计。)如果知道某个特定指标会在较短的时间段内发生变化,例如一天中的某个时间或一周中的某一天 —— 那么就尝试让测试涵盖这一整个时期。对于需要较长的时间段的指标,只测试几周可能会更好一点,并要根据度量标准随时间的变化进行相应地推测。

最短时间: 测试运行的时间要足够长,来获取足够的数据从而能够提供具备统计意义的结果。通常对应的测试人数是 1,000 个用户(至少)。但是,能否得到明显的结果取决于从假设推导出来的指标分布。你可以通过估计有多少用户能够在所需的时间段内进行测试,从而在合理的时间内完成此操作,然后选择估计用户数量的百分比,以便让你的测试在这个时间段内达到统计显著性。一些 A/B 测试平台能自动管理这些操作,同时也可以提高你的测试采样率,让你的测试更快地达到统计显著性。

第 2 步,整合 A/B 测试平台

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

已经有几种 A/B 测试平台,既可以作为一个独立产品进行测试,也可以作为一个更大分析平台的组件,例如 Firebase 远程配置分析。通过客户端库,平台会向 app 发送一组配置指令。app 不知道为什么要返回某个参数,因此不知道它在测试哪一部分,甚至不知道是否这是测试的一部分。客户端应该按照配置指令自己进行相应配置,由客户端来解释其中的价值。 在最简单的情况下,返回的参数可以是简单的键值对,用于控制是否启用给定功能,如果是,则激活对应的版本。

在更复杂的情况下,如果需要进行大量的远程 app 配置,app 会将参数发送到 A/B 测试平台,测试平台会跟据这些参数来选出更精细的测试配置。例如,如果假设只涉及具有 xxxhdpi 屏幕密度的设备,那么 app 将需要将其屏幕密度发送到 A/B 测试平台。

不要重复发明轮子

直接从现有平台中选择一个可以满足 A/B 测试需求的。注意:需要养成相应习惯来做到 A/B 测试和数据驱动决策。

注意: 管理许多用户,让其保持一致的测试状态,并公平地分配测试参与者很。没有必要从头开始写。

当然,你要为每个要测试的版本写代码。但是,不应该由 app 或某个定制服务来决定在给定时间内使用哪个版本。这要交给 A/B 测试平台来处理,应用这种标准方法,可以在集中管理同一时间内同一人群的多个测试。当你在平台上只执行一个测试时,亲自实现一个简单的 A/B 测试机制才有意义。 对于硬编码两个测试的成本,您可以集成一个现成的 A/B 测试平台。和写两个硬编码测试的成本相比,不如把这些测试集成进一个现成的 A/B 测试平台。

整合分析功能

选一个可以提供详细的测试状态信息的现有分析平台,可以自动帮你可以把测试人群进行分类。要紧密地把这两个平台集成在一起,取决于每个测试的具体配置,和要直接在 A/B 测试平台和分析平台之间传递的版本。A/B 测试平台会为每个版本分配一个唯一的引用,并将其传递给客户端和分析平台。然后,只允许客户端把该引用而不是整个版本的配置传递给分析平台。

远程配置

一个具有远程配置功能的 app,已经有了实现 A/B 测试时所需的大部分代码。实质上,A/B 测试添加了一些服务器端的规则用来确定什么配置发送到 app。 对于没有远程配置功能的 app,那么引入 A/B 测试平台是让你引入这一功能的其中一个好方法。

第 3 步,测试假设

一旦确定好你的假设和设计好测试,而且也集成了 A/B 测试平台,实现你的测试版本就是一个最简单的操作了。下一步,开始你的测试。A/B测试平台将一组样本用户分配在测试群体上,然后给每个测试用户分配版本。然后平台继续在理想时间段内的分配用户。对于更高级的平台,平台会一直执行测试,直至达到统计显著性。

监控测试

我建议在测试过程中监控新版本所造成的影响,包括测试假设中未提及的指标。如果你发现它会造成不良的影响,那么可能要尽早停止测试,尽可能快地让用户恢复到之前的版本 —— 最大限度地减少糟糕的用户体验。一些 A/B 测试平台能够自动监控并会提醒测试可能会有意想不到的负面影响。如果你的平台不能做到这一点,你需要把现有的监控系统中看到的任何影响和目前的测试相互参考,来识别“不良”版本。

注意: 如果测试确实需要提前停止,那么你应该要对收集到的数据谨慎处理,因为它不能保证测试群体样本具有代表性。

第 4 步,分析并得出结论

一旦测试正常结束,你就可以用在分析平台中收集到的数据确定测试的结果。如果结果指标和假设相符,那么你可以认为这个假设是正确的。否则,你猜错了。确定观察结果是否具有 统计显著性 取决于指标的性质和分布。

如果假设错误 —— 因为相关指标没有正面或者负面影响 —— 那么就没有理由继续保留这一版本了。然而,新的版本可能会对相关但意想不到的指标产生积极的影响。这可能是一个选择新版本的理由,但通常来说执行一个专门针对辅助指标的附加测试来确认其影响会更好一点。实际上,一个实验的结果经常会引起额外的问题和假设。

第 5 步,采取行动

如果假设是真的,并且新的版本比旧的好,那么我们可以更新要传递给 app 的“默认”配置参数,指示它使用新的版本。一旦新的版本为成为默认后持续了足够的时间,你就可以把旧版本的代码和资源从下一个版本的 app 中删除。

迭代展示

A/B 测试平台的一个常见用法是将其重新作为迭代展示的机制,其中 A/B 测试的获胜版本会逐渐取代旧版本。这可以视为 A/B 设计测试,而迭代展示是 Vcurr/Vnext 测试,用来确认所选的版本不会对大部分的用户产生不利影响。可以通过提高接收新版本的用户百分比(例如,从 0.01%,0.1%,1%,3%,7.5%,25%,50%,100% 开始)来迭代展示并确定在进入下一步之前没有不利的结果。同时你还可以用其他方式进行分类,例如国家,设备类型,用户组等。你还可以选择将新的版本展示给特定的用户组(例如内部用户)。

更进一步的实验

例如,你可以构建一个简单的 A/B 测试,用于更深入的理解用户行为范围。您还可以同时运行多个测试,并在单个测试中比较多个版本来来让测试更高效。

深度分组和定位

A/B 测试结果可以检测不同组结果的变化,并定位是哪个方法所造成的。在这两种情况下,可能需要提高采样率或测试持续时间来达到每个组的统计显著性。例如,标签 vs 底部导航假设 的测试结果可能会根据国家的不同有不同的影响。在某些情况下,一些国家的用户参与度可能会大幅度增长,有些则没有变化,有的略有下降。 在这种情景下,A/B 测试平台可以根据国家设置不同的“默认”版本,以最大限度地提高用户总体参与度。

可以针对特定组使用同一组的数据进行测试。例如,您可以测试居住在美国的用户和之前使用过标签导航风格的用户。

A/n 测试

A/n 测试是测试两种以上版本的简写。这可能是多个新的版本要取代现有的版本,如有全新功能的几个版本要取代没有任何新功能的版本。当你进行了深度地分组后,可能会发现不同的版本会在不同的组中表现最好。

多变量测试

一个多变量测试是一个单一的测试,它一次性改变 app 多个部分。然后,在 A/n 测试中,将唯一的一组值作为一个单独变量处理。例如:

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

当多个方面可能都会影响整体指标性能时,使用多变量测试是适当的,但是无法区分该效果是由哪一特定方面带来。

扩大测试规模

如果在同一个人群中同时运行多个测试,那么这些测试必须由同一个平台管理。有些平台能够扩展到支持数千个测试同时运行,有些平台则把完全测试孤立起来(所以用户一次只能进行一次测试),而有些平台可以共享一个测试用户(所以用户同时进行多个测试)。前一种情况更容易管理,但会迅速用完测试用户,并导致统计显著性的上限取决于并行测试的数量。而后一种情况,A/B 测试平台难以管理,但是并行测试的数量没有上限。平台通过完全把每个测试视为另一个测试的附加组来实现这一点。

自我选择

自我选择让用户知道自己正在使用特定测试中的特定版本。用户可以自行选择版本,或者让 A/B 测试平台给他们分配。无论是哪种情况,这些用户都应该被排除在指标分析之外,因为他们不是在不知情的状态下参与测试 —— 他们知道这是一个测试,所以他们可能会表现出一个有偏见的回应。

结论

app 内的 A/B 测试是一个非常灵活的工具,它可以让你对你的 app 做出由数据驱动的决策,正如我在本文中所强调的,这可以帮助你对新功能做出明智的选择。A/B 测试允许你在真实世界中使用真实用户测试 app 的各个方面的版本。为了简化 app 内的 A/B 测试设计,集成,执行和分析,Google 提供了一套工具,其中包括:

  • Firebase 远程配置 (FRC)提供了一个客户端库,允许 app 请求 Firebase 和并接收相应配置,另外还有一个基于规则的云端机制来定义用户配置。远程配置可以在而无需发布新版本的情况下帮你更新(和升级)你的 app。
  • Firebase 远程配置与分析 支持根据 A/B 测试来决定和跟踪版本部署。
  • Firebase 分析 根据版本给出一个指标分类,并直接连接到 FRC。
你怎么看?

对使用 A/B 测试还有任何疑问或想法吗?可以在下面的评论中发布讨论,或者使用标签 #AskPlayDev,我们将会在@GooglePlayDev 里回复,我们会定期分享有关如何在 Google 上做得更好的新闻和提示。
记住: 分析对于 A/B 测试至关重要。 A/B 测试和分析结合在一起,可以开拓你的视野,推动你的 app 之后的设计和开发,最大限度地让其做到最好。

掘金翻译计划 是一个翻译优质互联网技术文章的社区,文章来源为 掘金 上的英文分享文章。内容覆盖 AndroidiOS前端后端区块链产品设计人工智能等领域,想要查看更多优质译文请持续关注 掘金翻译计划官方微博知乎专栏

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化的资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

n.net/topics/618631832)**

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 18
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值