强化学习在锦囊位置调控上的探索和实践

一、背景


在手淘的搜索中,当用户输入query进行搜索之后,一方面有适合他的商品展现出来,另一方面,如何更好地理解用户意图,为其推荐更合适的关键词进行细分查找,从而更高效的引导用户到他想找的商品,也是一件非常重要的事情。


因此在手淘搜索场景下,我们以“锦囊”这种产品形态来承载对用户意图的理解和细分,关于锦囊更完整的介绍请见:https://www.atatech.org/articles/80706  


同时锦囊的内容也分了不同的类型,比如从标题抽取出来的tag标签,相关搜索,以及和query相关的品牌和其它的各种属性值,如裙长,袖长等。如下图所示:



在这里,我们主要解决的问题是如何根据用户的历史以及实时行为,在当前query下,为他推荐更合适的锦囊类型,比如有的用户对品牌感兴趣,有的用户对风格感兴趣,那么就会根据实时的信息,在合适的页面展现合适的锦囊类型。以提高用户对锦囊的点击率,进而提升引导效率。


二、系统框架

    

整个强化学习位置调控是一个在线实时训练的过程,其框架图如下所示:



porsche:Porsche,是一个强大的机器学习平台,更多介绍可参考:http://porsche.alibaba-inc.com ,我们的实时日志处理,以及强化学习的实时训练均跑在porsche平台上,通过porsche平台,输出两个数据,一是强化学习的模型参数,直接写入dii引擎内存中,二是用户的实时行为序列,写入igraph中


锦囊模块:在判断具体出什么类型的锦囊时,需要的数据有用户的实时行为序列,从igraph中获取,同时还要从dii内存中获取强化学习的模型参数,然后综合判断当前需要出的锦囊类型。同时在当前session下,还需要实时的将已经出现过的类型写入igraph中,当用户再次翻页的时候,不会出现重复的锦囊类型。


三、基于强化学习的建模


3.1 强化学习简介


强化学习主要是通过与环境交互中的trail-and-error,来不断找到能使得累计奖赏最大的策略一种学习方法。


在Model-Free的强化学习中,主要有两类方法,一类是Value-Based的方法,即利用值函数估计来选择最优的动作(比如Q(s,a)),也相应得到了更优的策略,比如Q-learning,SASAR,DQN等,另一类是Policy-Based的方法,采用直接优化策略的方法,比如TRPO,A3C等。 我们在锦囊调控的任务中主要使用过A3C,DQN两种方法。


1. DQN

DQN是DeepMind在用DRL探索Atari游戏时提出的,其主要框架就是在传统的Q-learning方法中引入了DNN(CNN)来进行学习,并在此基础上加入了Experience Replay,Targrt Network等技巧,并在很多游戏上达到甚至超过人类玩家水平。在之后的几个工作里,也进行了进一步的完善和提高(Prioritised Replay, Double DQN,Duelling Network等等)。其中Nature版本的DQN伪代码如下所示:



2. A3C


A3C算法的全称是asynchronous advantage actor-critic,其中actor-critic是在一般的policy-based方法中,也引入了值函数估计的方法来减少方差,如下图:



而在利用bias term技术来减小方差时,采用了Advantage function来作为bias: 



  算法基本逻辑如下图:



3.2 问题建模及实现


当用户在搜索中发出一个query,看到页面,把当前页面下用户的一些特征作为此时的状态,我们要学习的策略就是在这种状态下应该给出什么类型锦囊,从而转移到下一个页面下,reward也应该根据目标进行设定。


1. state
    

我们设计State能包含用户在当前query下的特征以及此时的实时特征,主要有:


  • 1.1长期特征


User 特征:性别,年龄,购买力等


User 历史上对锦囊综合的以及各类型锦囊的展现点击等情况;


Query的特征;


当前Query下锦囊综合的以及各类型锦囊的展现点击等点击情况;
   

 ……

  • 1.2实时特征
        

当前所在Page;


当前页之前用户最近100次 PV中对各类型的点击情况;


用户最近五个动作类型(点击,浏览,购买等);


用户最近点击的五个商品的特征;


    ……


2.动作


我们学习的目标就是在当前页,对于特定用户状态,出什么类型的锦囊,因此这里我们直接把要出的锦囊类型作为动作。如下图:


3. 奖赏函数

Reward Function决定了我们想要引导锦囊agent去优化的方向,也即是优化目标。当我们设定了不同的目标时,reward应该做出相应的调整: 单纯最大化锦囊的CTR时,可以有类似下面的设定(其中,x表示当前query下点击的锦囊的页码)



再结合引导成交等需求,可以有类似如下的设定:(其中,y, z, I代表翻页页数,点击次数,是否购买)



3.3 学习算法


1. A3C

锦囊候选类型,一开始没有引入属性pid类型,锦囊类型只有有限的几种,如相关搜索、选购热点、细选等,因此我们采取了A3C算法,直接把类型当做动作,用critic网络来学习值函数,用Actor网络来学习policy,actor网络最后输出的值经过softmax可以认为是采取各个动作的概率值,Actor网络形式如下所示:



2. DQN


当我们把属性pid引入到锦囊中后,候选的锦囊类型(即动作)一下子增加到两万多种。如果我们还是采用之前的A3C方法,网络的输出需要有两万多个节点,显然是不适用的。因此,我们采取了用DQN+类型ID Embedding的形式来进行学习。也就是说,对每一个候选动作a,先进行embedding,再和s过来的节点进行concat,之后学习的就是他们的Q值,然后再每一个具体query下进行选择的时候,计算每一个可选的ID的Q value,从而进行决策,这里只用到了一个网络。如下图:



四、算法改进


4.1 Stratified Sampling Replay


由于我们获取的是实时数据,这就可能导致不同的时间段获取到的用户分布差异较大,从而实时学习的模型对受到数据的影响,导致学习方差加大。


为了减弱这一影响,可以利用Stratified Sampling技术。比如,可以对用户的年龄分布,性别分布,购买力分布进行统计,获取一个较为稳定的比例。之后,在一般的random replay的基础上做一些改变,每次的采样遵循此比例进行分层的采样方法,使得样本更加的稳定,学习的方差也会更小。


4.2 基准桶实时CTR修正


除了用户群体分布变化之外,每一天不同时间段的用户总数,用户使用习惯也会发生变化,从而导致了非模型引发的reward变化(模型没有变化,整体CTR发生提高,reward提高,而误认为是模型的正向作用),这就使得学习的评价指标不稳定,可能产生波动的情况。


因此,我们加上了一个比较基准,利用kmonitor实时的统计基准桶里面的用户行为,CTR等信息,利用此来修正reward,比如可以设置为: reward=原始reward-基准桶reward(强迫模型朝着比基准桶更好的方向发展,而不是受一天中不同时间段的影响)。


4.3 引入Thompson Sampling


在采样方法上,在传统强化学习的方法之外,也尝试了Thompson Sampling的方法,该方法主要是去维持每一个类型beta分布来进行学习。


5. 效果与展望


5.1 效果


在采取了上述方法后,与基准桶相比,线上的CTR和使用UV得到了一定程度的提升(10个点左右)。


5.2 思考


这是一次RL在此类任务上的探索,应该说至少证明了RL是可以胜任这类问题的,不过由于目前每一个query下候选的锦囊类型过少,直接采用一般的监督学习方法,CTR预估等应该就可以达到比较好的结果。


另外,综合考虑,直接决定与用户交互的词语,内容,可能是更好的选择,更加能给用户提供帮助。后续锦囊这个产品可以考虑引入更多的交互,这一块用DL+RL也能很自然的得到一定的结果。


end

五位专家跟你讲讲为啥Python更适合做AI/机器学习

阿里巴巴搜索无状态服务的秒级弹性调度

揭秘阿里巴巴开源框架JarsLink

理解卷积神经网络的利器:9篇重要的深度学习论文

更多精彩

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值