如何搭建一个线上实验

Read the latest article and comment on Notion.

本文是对《关键迭代:可信赖的线上对照实验》的摘抄和总结,如有错误恳请指出,欢迎各种评论。

准备测试

想成功就多失败

实验的带来的认知改变也和预期于现实的差距有关。

如果你认为一件事情会发生,然后它真的发生了,那么你不会学到什么。如果你认为一件事情会发生,但没有发生,那么你会学到一些重要的东西。如果你原本认为一件事情不值一提,但它带来了惊人的或突破性的结果,那么你会学到一些非常有价值的东西。

团队认为一个产品功能有用才会去开发它,然而,很多领域的大部分想法都无法提升关键指标。在微软,被测试过的想法仅有三分之一能改善目标指标。在已经高度优化的产品领域,如必应和谷歌,想要成功就更难了,测试的成功率仅在10%~20%之间。
必应几百人的关联算法团队每年的任务就是将单个OEC指标提高2%。

测试是战术,决策是战略

测试大胆的想法时,运行和评估实验的方式也有所变化。

  • 实验的运行时长,房间里温度的小幅提升不会引起变化,而一旦达到熔点,冰块就会开始融化。
  • 被测试的创意数量。每个实验只测试一个具体的战术,该战术是总体战略的一个组成部分。个别实验的失败不代表总体战略有问题。但如果经对照实验评估后的很多战术都以失败告终,那大概率就是战略的问题。用实验来验证战略是极其消耗成本的,制定战略所需的数据应该从已收集的可用数据中得出。

OKR 的一种解释就是确定战略O,其后的KR衍生出一系列战术来满足KR并回馈到O。

什么是显著结果

不是所有用户显著的结果都有实际意义。以人均营收为例,多大的差异从业务角度来说是紧要的?换句话说,什么演的变化是实际显著的(practically significant)?构建这一实质性的边界很重要,它可以帮助理解一个差异是否值得话费相应改动所需的成本。如果你的网站像谷歌和必应那样有数十亿美金的营收,那么0.2%的变化是实际显著的。作为对比,一个初创公司可能认为2%的增长都太小了,因为他们追求的是10%或更大的增长。

2012年bing每10毫秒的性能提升(眨眼速度的1/30)足以支付雇佣一个全职工程师一年的成本。到了2015年这个数字变成了4毫秒。

搭建测试

变体分配

如何把实验分配给用户

  • 单层方法。把用户分桶,比如1000 个桶,每次拿两个用户桶做实验。
  • 并行实验。
    • 把代码架构分层,每层只有一个实验。
    • 不关心实验互相影响,默认实验都是正交的,如果有不正交的实验,依赖执行团队发现并解决矛盾。

指标分类

  • 目标指标,也被称为成功指标北极星指标,它体现了机构终极关心的是什么。能用语言把你的目标清楚表达出来是重要的,因为从目标到指标的转化通常都不完美,你的目标指标也许只是你真正关心事物的一个近似,并且需要随着时间推移而迭代改进。让人们能理解这个局限性,以及指标与目标陈述之间的区别,对于把握公司的正确方向是至关重要的。
  • 驱动指标,也被称为路标指标代理指标间接预测指标,一般比目标指标更短期,变化更快也更灵敏。驱动指标反映了一个思维上的因果模型,它是关于如何做可以让机构更成功,也就是对成功的驱动力的假设,而非关于成功本身是什么样的。
  • 护栏指标,保证我们在通往成功的道路上有正确的权衡取舍,不会违背重要的限制。

指标选择

指标选择在不能违反数理常识的前提下,还取决于设计者的价值选择(“人是目的,不是手段”)。指标代表着你想要系统怎么去理解数据,你的关心是什么。例如关注极端值就要用P95 P99,关注整体情况就用平均值和中位数。

代理指标

一些订阅服务以年为单位续订。除非你愿意运行一个长达一年的实验,否则很难测量对续订量的影响。对于这种情况,我们不能用续订率作为实验指标,而是需要寻找代理指标,比如服务的使用量,这类指标往往可以提早显示用户对服务的满意度,并最终影响续订率。

指标归一化

即便想要提高的是营收总和,也不建议将营收总和作为指标,因为它依赖于变体对应的用户数量。即便各变体被等量分配,实际用户数也可能因为偶然性而有所不同。我们推荐按实际样本量归一化的关键指标,因此人均营收才是一个好的综合评估标准。

对偶性

有时候精确测量你不想要的事物反而比测量你想要的更简单,如用户的不满意度和不幸福度。
从观测数据中建立因果关系是很难的,但一个仔细进行的观测研究有助于否定错误的假设。

预防子指标冲突

要仔细检查大指标下面的各个子指标,很有可能子指标之间是互相冲突的,例如搜索引擎的人均搜索量 = 人均会话数 * 会话平均的去重查询个数。

一个会话的开始被定义为用户开始第一次查询,结束则是用户30分钟内在搜索引擎上没有活动。

  • 人均会话数大概率是一个正向的指标,用户对搜索引擎越喜欢,其使用频次就会上升,那么人均会话数也会上升。
  • 会话的平均去重查询却应该减少,这个与总目标相违背。因为单次会话的平均去重查询减少代表用户解决问题的步骤变少了,但是也有可能代表用户放弃了查询。我们最好伴随这个指标在建立一个查询中途放弃的指标。

陷阱

警惕极端结果

当看到令人惊讶的正面结果(例如对关键指标的重大改进)时,我们倾向于围绕它构思一个故事,分享并庆祝。当结果出人意料地是负面的时候,我们倾向于找出这项研究的某些局限性或较小的缺陷,并将其忽略掉。
经验告诉我们,许多极端结果更有可能是由工具化记录(例如,日志记录)的错误、数据丢失(或数据重复)或计算错误导致的。

辛普森悖论

在某个条件下的两组数据,分别讨论时都会满足某种性质,可是一旦合并考虑,却可能导致相反的结论。

Simpson’s paradox - Wikipedia

当实验feature 导致了两个互为穷尽且互斥的细分群中的个体发生迁移,也会导致类似的情况(虽然书中强调这不是辛普森悖论)。

例如某个feature 让等级2 的用户回到了等级1,可能两个等级的数据都变好了,因为等级2 的用户群剔除了表现差的用户,而等级1 的用户群增加了表现好的用户,但可能两个等级的总用户表现不会有变化甚至会变差。

在理想情况下,只应该通过在实验之前就确定的值来进行细分,这样实验不会导致用户对应细分群的更改,但实际上在某些案例下我们很难限制这种细分。

用户群改变

当计算指标或运行实验时,所有的数据都来自现有的用户群。尤其是对早期产品和初创企业来说,早期用户可能无法代表业务长期发展所希望获取的用户群。

不确定的混淆因素

共享这些因素可能会导致实验失败:

  • 市场资源。民宿、网约车有这样的问题,一旦进入supply constraint,一个组抢占过多的资源会让另一个组失去原有的资源。
  • 广告活动的预算
  • 关联模型训练。一旦两个模型都是用全量用户的数据计算的,那么几天后很可能两个模型的知识会发生共享。
  • CPU或其他计算资源

Others

Goodhart 法则:当一个测量变成目标时,它就不再是一个好的测量。

Lucas 批判观察到在历史观测数据中的关系是无法被考虑为结构性的或者因果关系的。政策上的决定会改变经济模型的结构,这样以来历史上的关联性就不再成立了。随着时间的变化,可能我们之前倚赖的因果关系都会变化。

长期实验

短期实验和长期实验结果可能不同的原因:

  • 用户的习得效应。
  • 网络效应。
  • 延迟的体验和评估。
  • 生态系统的变化
    • 启动其他新功能。
    • 季节性。
    • 竞争格局。
    • 政府政策。
    • 概念漂移。
    • 软件性能下降。

长期运行实验的改善方法:

  • 群组分析。长期跟踪一个稳定群组的用户数据。
  • 后期分析。运行一段时间后关闭实验/或者把实验开放给所有用户,然后继续测量对照组和实验组的差异。
  • 时间交错时实验。把实验开始时间t 作为变量创建多个实验组,比较不同t 之间用户的差异表现。
  • 留出和反转实验
    • 留出:留下10%的用户在对照组;
    • 反转:几个月后吧10%的用户重新放到对照组。去测量用户的表现。

伦理

  • 尊重人:尊重实验参与者是有自主行为能力的个体,并在他们丧失这种能力时保护他们。这一原则的重点是透明、真实和自愿(选择和同意)。
  • 有益性:保护人们免受伤害。正确评估风险和收益,并在审查拟议研究时适当平衡风险和收益。
  • 正义性:确保不剥削参与者,并公平分配风险和收益。

一个例子:设计一个减速实验

为什么减速实验可以测出加速对产品的影响?

假设相关指标(如营收)对性能(如速度)的变化图线,在当前值附近可以很好的被线性拟合。这就是一阶泰勒展开的近似,或者说是线性近似。

即如果我们改进性能,得到的指标变化是可以用降低性能得到的指标变化来近似的。

还有两个原因可以支持这个假设

  • 从我们自己作为用户的经验来看,网站速度是越快越好的。即大家都喜欢性能好的产品。
  • 我们还可以去验证线性假设,比如测试一下延迟100ms 和延迟250ms 的指标,看一看在这两个情况下得到的指标是否符合线性关系。

替代方案

如何去测量虚拟事实呢?考虑要计算一个测试对象为人群的实验,想要知道此实验的虚拟事实和现实的偏差,我们有:

  受影响人群的结果 - 未受影响人群的结果
=(受影响人群的结果 - 受影响人群如果未受影响的结果) +
 (受影响人群如果未受影响的结果 - 未受影响人群的结果)
= 变动对于受影响人群的作用 + 选择性偏差

我们能观测到的是是否收到影响人群的表现,但我们想知道的是变动对于受影响人群的作用,所以我们期望系统中的选择性偏差为0。

A/B 测试就是选择性偏差为0 的系统,但是很多实际情况我们无法把A/B 测试施加到一个现实问题中,比如没有随机化单元,比如实验会带来巨大的(机会)成本浪费,比如实验会有违伦理道德。

一般有这些方法来替代A/B 测试,但这一类方案总是会比A/B 测试带来更大的误差和夸张的结果:

  • 中断时间序列,把实验时间分割成许多小段,每段时间均匀(且随机、或者就是轮询)地分配给各个事实,然后对此进行测量和分析(一些时序模型可以派上用场,比如贝叶斯结构时间序列分析)。
  • 交错式实验,经常用于排名算法,奇数位置展示算法A,偶数位置展示算法B,以此来比较差异。
  • 断点回归设计,当受实验影响的人群是由一个明确阈值识别的情况下时考虑该方法,把刚好低于阈值的人群作为对照组,将刚好高于阈值的人群作为实验组,通过比较这两组人群来减少选择性偏差。比如研究奖学金对学生的影响,80分以上的考生可以有奖学金,那我们就研究84-80 和79-75 这两个考生群体。
  • 工具变量和自然实验,如果能在被研究流程中找到可以帮助我们实现随机分组的工具,那么利用这个工具来分析实验,比如采取抽签制的征兵和入学分配,若可以判定抽签过程是随机的,那么就可以用抽签作为随机化单元。
  • 倾向评分匹配,虽然我们无法随机化,但是如果我们可以分清楚不同组别之间可能会影响我们对变量判断的混淆因素(协变量),又或者可以确定无法辨别的混淆因素不会影响分析,那我们就可以去分析变量和结果之间的因果关系,通常很难做到。
  • 双重差分法,识别出与实验组尽可能相似的对照组,假设两组在趋势上是相同的。比如选择两个各类特征都相近的两个城市作为对照城市,一个开启新feature,一个不是,然后比较两个城市之间的差异。

这一类分析需要小心使用,可能会因为如下原因失效:

  • 共同原因,手掌越小寿命越长,其实是女性的寿命越长。
  • 伪相关性或欺骗性的相关性,全美拼写比赛的单词长度和当年被毒蜘蛛咬死的人数正相关,但这显然是伪相关性。

数学推导

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-zqYkwg04-1644040072515)(https://s3-us-west-2.amazonaws.com/secure.notion-static.com/1b0e58b7-8fcd-42e2-9a03-590a076f4239/13371641280052_.pic.jpg)]

我们用双样本t检验来计算p-value,这符合实际的实验设置。

T = Δ var ( Δ ) T = \frac{\mathit{\Delta}}{\sqrt{\text{var} (\mathit{\Delta})}} T=var(Δ)

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值