推荐系统三十六式学习笔记:原理篇.MAB问题|16|简单却有效的Bandit算法

推荐系统的使命就是建立用户和物品之间的连接。建立连接可以理解成;为用户匹配到最佳的物品;但也有另一个理解就是,在某个时间某个位置为用户选择最好的物品。

推荐就是选择

生活中处处有选择,时常面对选择时,会不知所措,并产生害怕心理。究其原因是把每个选项看成独一无二的个体,一旦错过就不再来。推荐系统中一个一个单独的物品也如此,一旦选择呈现给用户,如果不能得到用户的青睐,就失去一个展示机会。如果跳出来看这个问题,选择时不再聚焦到具体每个选项,而是去选择类别,这样压力是不是就小了很多?

比如说,把推荐选择具体物品,上升到选择策略。如果后台算法中有三种策略:按照内容相似推荐,按照相似好友推荐,按照热门推荐。每次选择一张策略,确定了策略后,再选择策略中的物品,这样两个步骤。

那么是不是有办法解决这个问题呢?当然有,那就是Bandit算法。

MAB问题

Bandit算法来源于常见的赌博机问题:一个赌徒,要去摇老虎机,走进赌场一看,一排老虎机,外表一模一样,但是每个老虎机吐钱的概率可不一样。他不知道每个老虎机吐钱的概率分布是什么,那么想最大化收益该怎么做呢?

这就是多臂赌博机问题(Multi-armed bandit problem,k-armed bandit problem),简称MAB问题。有很多问题都属于MAB问题。
1.假设一个用户对不同类别的内容感兴趣程度不同,当推荐系统初次见到这个用户时,怎么快速得知道他对每类内容的感兴趣程度?这也是推荐系统常常面对的冷启动问题。
2.假设系统中有若干广告库存物料,该给每个用户展示哪个广告呢,才能获得最大的点击收益,是不是每次都挑收益最好的那个呢?
3.算法工程师又设计出了新的策略或者模型,如何既能知道它和旧模型相比谁更靠谱又对风险可控呢?

这些问题全都是关于选择的问题。只要是关于选择的问题,都可以简化成一个MAB问题。

推荐系统里面有两个顽疾:一个是冷启动,一个是探索利用问题。后者又称为EE问题:Exploit-Explore问题。针对这两个顽疾,Bandit算法可以入药。

探索利用问题什么意思呢?
探索的意思是:不断探索用户的新兴趣才行,不然很快就出现一模一样的反复推荐。就好比你虽然有了一些继续,但还得继续搬砖,不然花完了就要喝西北风了。

Bandit算法

Bandit算法并不是指一个算法,而是一类算法。现在就要介绍一下Bandit算法家族怎么解决这类选择问题的。
首先,来定义一下,如何衡量选择的好坏?Bandit算法的思想是:看看选择会带来多少遗憾,遗憾越少越好。在MAB问题里,用来量化选择好坏的目标就是累计遗憾,计算公式如下:

在这里插入图片描述
公式有两部分组成:一个是遗憾,一个是累积。求和符号内部表示每次选择的遗憾多少。
Wopt表示“每次都运气好,选择了最好的选择,该得到多少收益,WBi就表示每一次实际选择得到的收益,两者之差就是遗憾的量化,在T次选择后,就有了积累遗憾。

在这个公式中:为了简化MAB问题,每个臂的收益不是0,就是1,也就是伯努利收益。

这个公式可以用来对比不同Bandit算法的效果:对同样的多臂问题,用不同的Bandit算法模拟实验相同次数,比比看哪个Bandit算法累积遗憾增长的慢,那就是效果较好的算法。
Bandit算法处理方法是:小心翼翼的试,越确定某个选择好,就多选择它,越确定某个选择差,就越少选择它。

如果某个选择实验次数较少,导致不确定好坏。那就多给一些被选择机会。简单来说,把选择的机会给“确定好的”和“还不确定的”

Bandit 算法中有几个关键因素:臂,回报,环境。
1.臂:是每次选择的候选项,好比就是老虎机,有几个选项就有几个臂;
2.回报:就是选择一个臂之后得到的奖励,好比选择一个老虎机之后吐出来的金币;
3.环境:就是决定每个臂不同的那些因素,统称为环境。

将这几个关键元素对应到推荐系统中来。
1.臂:每次推荐要选择候选池,可能是具体物品,也可能是推荐策略,也可能是物品类别;
2.回报:用户是否对推荐结果喜欢,喜欢了就是正面的回报,没有买账就是负面回报或者零回报;
3.环境:推荐系统面临的这个用户就是不可捉摸的环境。

下面开始介绍最常用的几个Bandit算法。

1.汤普森采样算法

第一个是汤普森采样算法。简单介绍一下它的原理:假设每个臂是否产生收益,起决定作用的是背后有一个概率分布,产生收益的概率为P.
每个臂背后绑定了一个概率分布,每次做选择时,让每个臂的概率分布各自独立产生一个随机数,按照这个随机数排序,输出产生最大随机数那个臂
对应的物品。为什么随机数这么神奇?

在这里插入图片描述

β分布有α和β两个参数。这两个参数决定了分布的形状和位置。

1.当α+β值越大,分布曲线就越窄,分布就越集中,这样的结果就是产生的随机数会容易靠近中心位置。
2.当α/(α+β)的值越大,分布的中心位置越靠近1,反之就越靠近0,这样产生的随机数也相应的更容易靠近1或者0;

β分布的这两个特点,可以把它分成三种情况:
1.曲线很窄,而且靠近1;
2.曲线很窄,而且靠近0;
3.曲线很宽。

这和前面所讲的选择有什么关系呢?可以把β分布的α参数看成是推荐后得到用户点击的次数,把β参数看成是没有得到用户点击的次数。按照这个对应,再来看一下汤普森采样的过程。
1.取出每一个候选对应的参数α和β;
2.为每个候选用α和β作为参数,用β分布产生一个随机数;
3.按照随机数排序,输出最大
4.观察用户反馈,如果用户点击则对应候选α+1,否则β+1;

注意,实际上在推荐系统中,要为每一个用户都保存一套参数,比如候选有m个,用户有n个,那么就保存2mn个参数;

汤普森采样为什么有效呢?解释一下:
1.如果一个候选被选中的次数很多,也就是α+β很大了,它的分布会变得很窄,换句话说这个候选的收益已经非常确定了,用它产生随机数,基本上就在中心位置附近,接近平均收益。
2.如果一个候选不但α+β很大,即分布很窄,而且α/(α+β)也很大,接近1,那就确定这是一个好的候选项,平均收益很好,每次选择很占优势,就进入利用阶段,反之则几乎再无出头之日。
3.如果一个候选的a+b很小,分布很宽,也就是没有被选择太多次,说明这个候选是好是坏还不太确定,那么用它产生随机数就有可能得到一个较大的随机数,在排序时被优先输出,这就起到了前面说的探索作用。

用python实现汤普森采样:

choice =numpy.argmax(pymc.rbeta(1+self.wins,1+self.trials-self.wins))

2.UCB算法

第二个常用的Bandit算法就是UCB算法。UCB算法全称是Upper Confidence Bound ,即置信区间上界。它也为每个臂评分,每次选择评分最高的候选臂输出,每次输出后观察用户反馈,回来更新候选臂的参数。
每个臂的评分公式为:

在这里插入图片描述
公式有两部分,加号前面是这个候选臂到目前的平均收益,反应了它的效果,后面的叫做Bonus,本质上是均值的标准差,反应了候选臂效果的不确定性,就是置信区间的上边界。t是目前的总选择次数,Tjt是每个臂被选择次数;

如果一个候选的被选择次数很少,即Tjt很小,那么它的Bonus就会较大,在最后排序输出时有优势,这个Bonus反映了一个候选的收益置信区间宽度,即Bonus越大,候选的平均收益置信区间越宽,越不确定,越需要更多的选择机会。反之,如果平均收益很大,就是说加号左边很大,也会在被选择时有优势。

这个评分公式和汤普森采样一样的思想:
1、以每个候选的平均收益为基准进行选择;
2、对于被选择次数不足的给予照顾;
3、选择倾向的是那些确定收益较好的候选;

3.Epsilon贪婪算法

这是一个朴素的算法,思想有点类似模拟退火,做法如下:
1.选择一个(0,1)之间较小的数,叫做Epsilon,也是这个算法名字来历。
2.每次以概率Epsilon做一件事:所有候选臂中随机选择一个,以1-Epsilon的概率去选择平均收益最大的那个臂。
Epsilon的值可以控制对探索和利用的权衡程度,这个值越接近0,在探索上就越保守。
和这个做法相似,还有一个更朴素的做法:先试几次,等每个臂都统计到收益之后,就一直选均值最大那个臂。

4.效果对比

以上几个算法,可以简单用模拟试验的方式对比其效果,如图所示:

在这里插入图片描述
横坐标是模拟次数,可以看成随着时间推移,纵坐标就是累积遗憾,越高说明搞砸的次数越多。在模拟后期,几把呢上各种算法优劣一目了然。从上到下分别是下面几种:
1.完全随机:就是不顾用户反馈的做法;
2.朴素选择:就是认准一个效果好的,一直推。
3.Epsilon贪婪算法:每次以小概率尝试新的,大概率选择效果好的。
4.UCB算法:每次都会给予机会较少的候选一些倾向。
5.汤普森采样:用β分布管理每一个候选的效果。

UCB算法和汤普森采样与其他算法相比,要显著优秀很多。

冷启动

推荐系统的冷启动问题可以用Bandit算法来解决一部分。
大致思路如下:
1.用分类或者Topic来表示每个用户兴趣,我们可以通过几次试验,来刻画出新用户心中对每个topic的感兴趣概率。
2.如果用户对某个Topic感兴趣,就表示我们得到了收益,如果推给了它不感兴趣的topic,推荐系统就表示很遗憾了。
3.当一个新用户来了,针对这个用户,我们用汤普森采样为每一Topic采用一个随机数,排序后,输出采样值TopN的推荐item。注意这里一次选择了TopN个候选臂。
4.等着获取用户的反馈,没有反馈则更新对应Topic的b值,点击了则更新对应Topic的α值。

总结

今天给你介绍了Bandit算法。Bandit算法把每个用户看成一个多变的环境,待推荐的物品就如同赌场里老虎机的摇臂,如果推荐了符合用户心目中喜欢的,就好比是从一台老虎机中摇出了金币一样。

今天重点介绍的Bandit算法有汤普森采样,UCB算法,Epsilon贪婪算法,并且用模拟的方式对比了它们的效果,汤普森采样以实现简单和效果显著而被人们喜爱,需要时不妨先试一下它。

  • 27
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值