打分排序系统漫谈1 - 时间衰减

打分排序系统的应用非常普遍,比如电影的评分,知乎帖子的热度,和新闻文章的排序。让我们从最简单直观的平均打分开始, 聊聊各种打分方法的利弊和使用场景。

最简单的打分方法当然是一段时间的点赞量综述。显而易见的缺点就是越老的帖子容易拿到更多的赞而长期霸榜,HN用了一种简单的时间方法来考虑时间衰减。

Hacker News Algo - 只有点赞

img

[ \begin{align} score & = \frac{(v-1)}{(t+2)^G} * pen \ where & v-1 剔除只有一个用户点赞的情况 \ & t+2 保证除数永远大于1 \ & G:衡量打分随时间的衰减程度 \ &pen: 争议,过短,没有跳转的文章打分会打折\ \end{align} ]

代码语言:javascript

复制

def hacker_news_ranking(votes, item_age, gravity = 1.8, penalties):
    score = (votes-1)/(item_age +2)**gravity * penalties 
    return score 

Hacker News 的打分方式,主要考虑到了时间衰减。保证老的新闻不会因为累计更多的点赞而始终在排在前面。并且点赞数和帖子新旧程度的权衡可以通过G的大小来调整。但仍然有几个未解问题:

  1. 时间衰减过快,对于一些有长实效性的打分并不适用。能否在打分上加入指数?
  2. 如何考虑时间衰减和当前时段的关系。不同时段浏览量不同,如果一篇很好的文章在凌晨发布,因为当时浏览量低,文章可能永远没有置顶机会。能否对时间进行加权?
  3. 没有考虑到点赞量和文章热度的非线性关系。简单说就是点赞量可以接近无限大,但文章热度是有限的。能否对打分进行非线性压缩?
  4. 不同类型文章热度是否可比,例如有的文章质量高但是相对小众。能否做组内排序?或者用点赞率来衡量
  5. 同理也应该考虑到浏览量(PV)和点赞量的关系。点赞率高的应该考虑排在前面,但同样浏览量过小的点赞率也要考虑置信度的问题
Reddit Hot Formula - 包括点赞和拍砖

img

同时考虑点赞和拍砖,Reddit 的 Hot Formula采用了和Hacker News相似的打分方式,来推荐优质高热度的文章。并针对上述问题(1)和(3)给出了不同的处理。公式如下:

[ \begin{align} score & = up - down \ score_{adj} & = \log_{10}{(max(score,1))}\ sign &= \begin{cases} 1 & if score > 0 \ 0 & if score = 0 \ -1& if score <0 \ \end{cases}\ score &= score_{adj} * sign + \frac{seconds}{45000} \ where , seconds & =发帖时间 - 2015年12月8日 \end{align} ]

和Hacker News相比, Reddt Hot Formula有几个不同点:

  • 用取Log的方式解决了上述提出的第三个问题就是文章热度和点赞量之间的非线性关系,文章热度不会随着点赞量的增加无限线性增长。而压缩的强度可以通过改变log的底数来调整,底数越大点赞量对文章的影响
  • 处理时间递减上,Hot Formula采用了线性递减处理。新的帖子因为距历史时点更远会拿到更高的时间加分项(\frac{seconds}{45000})。和上述指数衰减相比,线性不会过度惩罚老文章。
思考:时间衰减

比较Hacker News,和Reddit Hot Formula, 主要的两点区别在于对点赞量(拍砖)取log进行压缩,以及不同的时间衰减项。 log运算单调所以如果只用排序不用分数的话并不会对最终排序产生影响,所以让我们再来深入讨论一下时间衰减项的选取。

简单来说时间衰减的意义就是为了让新老文章的热度具有可比性,否则老的帖子会因为在更长的时间累计了更多的帖子而始终置顶。一种直观的解决办法就是给老的帖子增加时间惩罚项。几种常见的时间衰减项包括:

  • 线性衰减 [ score_t = score_0 - T/G ]
  • 幂指数衰减 [ score_t = score_0 / (T + 2)^G ] 幂指数衰减的衰减速度会随着时间加速,加速时间惩罚项对打分的影响。如果觉得幂指数的表达形式不够直观,我们可以对等式左右取个对数,会发现对数打分的变化是对数时间的线性函数,可以用这个方式来判断幂指数打分是否适用,如下: [ log(score_t) = log(score_0) - G * log(T+2) ]
  • 指数衰减 [ score_t = score_0 * exp( - \lambda * T ) ] 指数衰减可以由牛顿冷却定律的一阶微分方程得到,(\lambda)是衰减速率,速率恒定,经过t时间衰减的量和N当前的值正相关

[ \frac{dN(t)}{dt} = - \lambda N(t) \ \frac{dN(t)}{N(t)} = -\lambda dt \ log(\frac{N(t)}{N_0}) = - \lambda t \ ]

也可以从指数分布的角度来理解,(N_0)是集合初始的元素数量,其中每个元素都在衰减,在t时刻依旧存在的元素数量期望是(N(t))。元素的生命长度符合指数分布:

[ f(t) \sim \lambda e^{-\lambda t} \ P(x>t) = 1 - F(x<t) = e^{-\lambda t } \ N(t) = N_0 * P(x>t) ]

如何系统的去学习大模型LLM ?

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料 包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来

😝有需要的小伙伴,可以V扫描下方二维码免费领取🆓

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

在这里插入图片描述

四、AI大模型商业化落地方案

img

阶段1:AI大模型时代的基础理解

  • 目标:了解AI大模型的基本概念、发展历程和核心原理。
  • 内容
    • L1.1 人工智能简述与大模型起源
    • L1.2 大模型与通用人工智能
    • L1.3 GPT模型的发展历程
    • L1.4 模型工程
    • L1.4.1 知识大模型
    • L1.4.2 生产大模型
    • L1.4.3 模型工程方法论
    • L1.4.4 模型工程实践
    • L1.5 GPT应用案例

阶段2:AI大模型API应用开发工程

  • 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
  • 内容
    • L2.1 API接口
    • L2.1.1 OpenAI API接口
    • L2.1.2 Python接口接入
    • L2.1.3 BOT工具类框架
    • L2.1.4 代码示例
    • L2.2 Prompt框架
    • L2.2.1 什么是Prompt
    • L2.2.2 Prompt框架应用现状
    • L2.2.3 基于GPTAS的Prompt框架
    • L2.2.4 Prompt框架与Thought
    • L2.2.5 Prompt框架与提示词
    • L2.3 流水线工程
    • L2.3.1 流水线工程的概念
    • L2.3.2 流水线工程的优点
    • L2.3.3 流水线工程的应用
    • L2.4 总结与展望

阶段3:AI大模型应用架构实践

  • 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
  • 内容
    • L3.1 Agent模型框架
    • L3.1.1 Agent模型框架的设计理念
    • L3.1.2 Agent模型框架的核心组件
    • L3.1.3 Agent模型框架的实现细节
    • L3.2 MetaGPT
    • L3.2.1 MetaGPT的基本概念
    • L3.2.2 MetaGPT的工作原理
    • L3.2.3 MetaGPT的应用场景
    • L3.3 ChatGLM
    • L3.3.1 ChatGLM的特点
    • L3.3.2 ChatGLM的开发环境
    • L3.3.3 ChatGLM的使用示例
    • L3.4 LLAMA
    • L3.4.1 LLAMA的特点
    • L3.4.2 LLAMA的开发环境
    • L3.4.3 LLAMA的使用示例
    • L3.5 其他大模型介绍

阶段4:AI大模型私有化部署

  • 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
  • 内容
    • L4.1 模型私有化部署概述
    • L4.2 模型私有化部署的关键技术
    • L4.3 模型私有化部署的实施步骤
    • L4.4 模型私有化部署的应用场景

学习计划:

  • 阶段1:1-2个月,建立AI大模型的基础知识体系。
  • 阶段2:2-3个月,专注于API应用开发能力的提升。
  • 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
  • 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 15
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值