广告推荐系统-逻辑回归问题导出

本文探讨了广告推荐系统中使用逻辑回归进行预测的原理。逻辑回归在二分类问题中,通过伯努利分布来预测用户点击广告的概率,其核心是广义线性模型。内容包括指数家族分布、逻辑回归函数的构建以及线性回归的计算方法,解释了为何在处理非线性关系时需要采用逻辑回归而非线性回归。
摘要由CSDN通过智能技术生成

在广告推荐系统中,利用用户和广告之间的信息作为预测的特征

预测的过程其实就是一个二分类的问题,主要就是判定一个用户对这个广告点击或者是不点击的概率是多少

而这个过程是一个伯努利函数,整个过程是一个伯努利分布

而在逻辑回归中主要是在线性回归的基础上利用了一个逻辑函数sigmod,而为什么要用这个函数,逻辑回归与线性回归之间的关系:

1 广义线性模型:

指数家族分布:

是广义线性模型的基础,所以先简单了解一下指数分布族。

      

当固定T时,这个分布属于指数家族中的哪种分布就由a和b两个函数决定。 自然参数 η    是分布的参数。

同事广义线性模型需要满足三个条件:

如何构建GLM呢?在给定x和参数后,y的条件概率p(y|x,θ) 需要满足下面三个假设:

        assum1)      y | x; θ ∼ ExponentialFamily(η).   参数x,y必须是符合指数家族分布的情况

        assum2)      h(x) = E[y|x]. 即给定x,目标是预测T(y)的期望,通常问题中T(y)=y.     模型预测输出仍然可以认为是

信息量是指在信息论中用来衡量一条信息的重要性或者不确定性的概念。在逻辑回归模型中,并没有直接使用信息量这个概念。逻辑回归是一种用于处理二分类问题的机器学习算法,通过对线性回归的结果应用Sigmoid函数来产生概率输出。逻辑回归模型的输出可以被解释为预测为正类的概率。 逻辑回归模型与线性回归模型有很多相似之处,实际上,去除了Sigmoid映射函数的逻辑回归算法就是一个线性回归。可以说,逻辑回归是以线性回归为理论支持的,但通过引入Sigmoid函数,逻辑回归可以处理0/1分类问题,并引入了非线性因素。 逻辑回归和线性回归都属于广义线性模型(GLM)。具体来说,它们都是从指数分布族导出的线性模型。线性回归假设因变量服从高斯分布,而逻辑回归假设因变量服从伯努利分布。 总的来说,逻辑回归模型是一种用于处理二分类问题的机器学习算法,它通过引入Sigmoid函数将线性回归扩展到非线性领域,从而能够输出预测为正类的概率。逻辑回归与线性回归有相似之处,但也有一些重要的区别。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [逻辑回归模型详解(Logistic Regression)](https://blog.csdn.net/iqdutao/article/details/109478633)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值