机器学习技法第五周学习笔记

1.Soft-Margin SVM as Regularized Model
我们对hard-margin svm和soft-margin svm进行回顾,我们首先求出问题的基本式,然后转换成对偶式,最后对对偶式利用二次规划工具求解。
hard-margin svm的条件物理意义为希望数据能够全部分对即Ein=0.最小化式子的物理意义为希望使求出边界最大的分割线。
soft-margin svm的条件物理意义为希望数据能够全部分对,但是能够容忍一定的错误,并记录错误的大小。最小化式子的物理意义为希望使求出边界最大的分割线,但是同时错误最小。
最下面为推荐的两个库,是台湾大学制作的SVM库。
这里写图片描述
如果点离分割线的距离大于1即在边界外,那么此时没有分错ξ将会是等于0的,如果点离分割线的距离小于1但是大于0,那么数据也不会被分错,但是仍然会被扣分,此时ξ将不为0,如果点离分割线的距离小于0,那么数据会被分错,会被扣去较多的分。其中 y n ( w T z n + b ) y_n(w^Tz_n+b) yn(wTzn+b)为点离分割线的距离。 1 − y n ( w T z n + b ) 1-y_n(w^Tz_n+b) 1yn(wTzn+b)为点离线的最远边界的距离。
然后我们能够将数据整合成一个式子,如下如所示。
这里写图片描述
这个式子和L2 regularization是类似的,可以写成一个最小化式子和一个限制条件的和,并且求其最小值。
那么我们为什么不直接其进行求解呢?非要利用svm的解法求解呢?
很简单,因为这不是个QP问题,不能使用核技巧,并且max运算符不能够微分,所以很难求解。
这里写图片描述
我们将正则化和svm的关联进行总结。
一般的正则化:希望Ein最小,但是给一个限制条件,比如之前的正则化,我们希望Ein最小,但是我们通过条件限制了H的大小。
hard-margin SVM:我们希望所求边界最宽,给定限制条件Ein必须等于0。
L2 regularization:希望所求边界宽度和Ein的和最小,即Ein要小,w也要小。
soft-margin SVM: 在L2 regularization的基础上增加了一个调节因子C。
这里C相当于L1里面的λ。大的C和小的λ相当于小的正则化。
这里写图片描述
既然我们不能够用SVM的正则化形式求解,那么我们为什么要进行正则化呢?主要是因为这样我们能够用正则化形式将SVM与其他模型联合起来进行分析比较。

2.SVM versus Logistic Regression
现在我们就通过SVM的正则化形式将其与我们之前的几种分类算法进行比较。
首先是01错误(最基本的错误):
这里写图片描述
然后是SVM的错误,当ys大于1时错误为0当小于1时错误成线型。
这里写图片描述
然后是逻辑回归的错误:
这里写图片描述
对比三种错误曲线,SVM和LRE都是01错误的上限,并且最大值和最小值都相等。所以这两种错误相似。
三种错误的优缺点如下:
这里写图片描述
由上我们可知逻辑回归和svm的错误曲线是类似的,所以我们可以说逻辑回归是svm的近似,但是这个结论反过来正不正确呢?我们能不能用svm来对数据点为0或者1的概率进行预测呢?

3.SVM for Soft Binary Classification
这一节我们介绍怎么才能利用SVM对数据是0或者1的概率进行估计。
一个直观的想法是,我们直接对SVM求出的值带入逻辑斯函数求得概率,实际上这个方法求得的值很接近真实的值,但是这样我们失去了我们在逻辑回归中所推导出来的一些结果。
另一个直观的想法是我们利用svm求出的结果作为w0作为逻辑回归的递推初始值。
但是这个方法并不比直接使用逻辑回归简单,并且丧失了svm核函数的优势。
这里写图片描述
为了中和两种方法的优势,于是有人提出了第三种想法:
首先利用svm求出一个分数,然后对这个分数进行一阶逻辑回归。
通常的结果是A为正,B接近0,因为这样也体现除了svm和逻辑回归的接近程度。
这里写图片描述
那么这样做的道理是什么呢?
我们首先利用svm求得(b,w)这相当于将x转换到了一个z空间。相当于利用了svm核函数的优势。
然后对这个z空间的数据进行逻辑斯回归。
这样我们就中和了这两个方法的优势。
这个结果和svm的结果相似。
这里写图片描述

4.Kernel Logistic Regression
上述我们是首先将数据通过svm转换到z空间然后求解,这节我们将直接在z空间进行求解,而不需要svm的转换。
我们发现只要w能够由z线型表示,那么我们的结果用能使用核函数。而我们知道SVM,PLA和LogReg by SGD的w都是z的线型组合。
这里写图片描述
我们发现,只要w的求解满足L2正则化形式,那么我们的w就能被 z n z_n zn线型表示。
这里写图片描述
接下来我们用 kernel的方法来求解logistic Regression该方法称为Kernel Logistic Regression.
我们直接将w表示成 z n z_n zn的线型组合,然后直接带入原式利用帝都下降法求解。
这里写图片描述
上述模型的另一种解释:不是很懂这个幻灯片的意义。
这里写图片描述

以下是对提供的参考资料的总结,按照要求结构化多个要点分条输出: 4G/5G无线网络优化与网规案例分析: NSA站点下终端掉4G问题:部分用户反馈NSA终端频繁掉4G,主要因终端主动发起SCGfail导致。分析显示,在信号较好的环境下,终端可能因节能、过热保护等原因主动释放连接。解决方案建议终端侧进行分析处理,尝试关闭节电开关等。 RSSI算法识别天馈遮挡:通过计算RSSI平均值及差值识别天馈遮挡,差值大于3dB则认定有遮挡。不同设备分组规则不同,如64T和32T。此方法可有效帮助现场人员识别因环境变化引起的网络问题。 5G 160M组网小区CA不生效:某5G站点开启100M+60M CA功能后,测试发现UE无法正常使用CA功能。问题原因在于CA频点集标识配置错误,修正后测试正常。 5G网络优化与策略: CCE映射方式优化:针对诺基亚站点覆盖农村区域,通过优化CCE资源映射方式(交织、非交织),提升RRC连接建立成功率和无线接通率。非交织方式相比交织方式有显著提升。 5G AAU两扇区组网:与三扇区组网相比,AAU两扇区组网在RSRP、SINR、下载速率和上传速率上表现不同,需根据具体场景选择适合的组网方式。 5G语音解决方案:包括沿用4G语音解决方案、EPS Fallback方案和VoNR方案。不同方案适用于不同的5G组网策略,如NSA和SA,并影响语音连续性和网络覆盖。 4G网络优化与资源利用: 4G室分设备利旧:面对4G网络投资压减与资源需求矛盾,提出利旧多维度调优策略,包括资源整合、统筹调配既有资源,以满足新增需求和提质增效。 宏站RRU设备1托N射灯:针对5G深度覆盖需求,研究使用宏站AAU结合1托N射灯方案,快速便捷地开通5G站点,提升深度覆盖能力。 基站与流程管理: 爱立信LTE基站邻区添加流程:未提供具体内容,但通常涉及邻区规划、参数配置、测试验证等步骤,以确保基站间顺畅切换和覆盖连续性。 网络规划与策略: 新高铁跨海大桥覆盖方案试点:虽未提供详细内容,但可推测涉及高铁跨海大桥区域的4G/5G网络覆盖规划,需考虑信号穿透、移动性管理、网络容量等因素。 总结: 提供的参考资料涵盖了4G/5G无线网络优化、网规案例分析、网络优化策略、资源利用、基站管理等多个方面。 通过具体案例分析,展示了无线网络优化中的常见问题及解决方案,如NSA终端掉4G、RSSI识别天馈遮挡、CA不生效等。 强调了5G网络优化与策略的重要性,包括CCE映射方式优化、5G语音解决方案、AAU扇区组网选择等。 提出了4G网络优化与资源利用的策略,如室分设备利旧、宏站RRU设备1托N射灯等。 基站与流程管理方面,提到了爱立信LTE基站邻区添加流程,但未给出具体细节。 新高铁跨海大桥覆盖方案试点展示了特殊场景下的网络规划需求。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值