Python机器学习
文章平均质量分 91
猫头丁
这个作者很懒,什么都没留下…
展开
-
【AI算法岗面试八股面经【超全整理】——机器学习】
因为回归树的标签是连续的,因此基尼系数、熵这种概率评估不适合作为评估指标,所以考虑使用均方误差作为特征划分的好坏,将划分后每个节点所有样本的均方误差之和与之前没划分的节点的均方误差作差来代替基尼系数。如果能将用户A的原始特征转变为一种代表用户A喜好的特征向量,将电影1的原始特征转变为一种代表电影1特性的特征向量,那么,我们计算两个向量的相似度,就可以代表用户A对电影1的喜欢程度。首先对物品或内容的特征作出描述,发现其相关性,然后基于用户以往的喜好记录,推荐给用户相似的物品。交叉熵越小,两个概率分布越接近。原创 2024-05-28 22:38:42 · 5847 阅读 · 0 评论 -
【AI算法岗面试八股面经【超全整理】——信息论】
在机器学习中,P 往往用来表示样本的真实分布,Q 用来表示所预测的分布,那么 KL 散度是可以计算两个分布的差异,也是是 Loss 损失值。熵用来描述一个事件的不确定性,表示某事件所有可能发生的情况的信息量的期望值(所有可能情况信息量的均值)概率与信息量的关系:概率越大的事件,提供的信息量越小;事物是普遍联系的,随机变量也存在相互关系,互信息可以用来刻画随机变量的相关程度。加入需要拟合的对象的分布是固定的(比如针对某一特定的数据集),那么。两个随机变量,当知道Y时,X的平均不确定性称为条件熵。原创 2024-05-27 11:10:01 · 1135 阅读 · 0 评论 -
【AI算法岗面试八股面经【超全整理】——概率论】
通俗一点来讲,就是样本数量很大的时候,样本均值和数学期望充分接近,也就是说当我们大量重复某一相同的实验的时候,其最后的实验结果可能会稳定在某一数值附近。在伯努利试验中,记每次试验中事件A发生的概率为0,试验进行到时间A出现为止,此时所进行的试验次数为X,其分布律为。随机变量依然也是两种0或1(概率分布是p和1-p),但是此时随机试验做了n次,其中事件X发生了k次。即X,Y的协方差等于每一个X减去X的平均值乘上每一个Y减去Y的平均值的乘积的和的平均值。即,用X,Y的协方差除以X的标准差和Y的标准差。原创 2024-05-27 09:59:44 · 2372 阅读 · 0 评论 -
AIStudio使用ResNet进行X光图像肺炎分类超级完整(详细代码)
AiStudio使用ResNet进行X光图像肺炎分类超级完整(详细代码)题目要求小袁是市人民医院的一名影像科医生,平时日常的工作就是看看片子然后写一下影像报告,但是他也一直对计算机技术很感兴趣。最近一段时间呢医院说要提高自身的智能化服务水平。一方面为了提高工作效率,另一方面也是自己很感兴趣,小袁就在想办法,能不能采用计算机的相关技术,应用在医学影像上,建立一个类似自动诊断的系统呢。正巧呢他手里有一个数据较多的胸部 x 光的数据库,是用来诊断是否患有肺炎的。于是他就想在这个数据库上做点文章。可是原创 2021-03-23 10:34:44 · 2804 阅读 · 2 评论 -
Python机器学习之multiple_linear_regression(多元线性回归)
Python机器学习之multiple_linear_regression(多元线性回归)实验介绍1.实验内容本实验介绍线性回归算法,并通过小实验简单认识一下线性回归算法实验1:用线性回归找到最佳拟合直线实验2:局部加权线性回归找到最佳拟合直线实验3:使用scikit-learn实现线性回归算法2.实验目标通过本实验掌握线性回归算法找到最佳拟合直线的方法。3.实验知识点线性回归4.实验环境python 3.6.55.预备知识概率论与数理统计Linux命令基本操作Python编原创 2021-01-12 09:37:41 · 6129 阅读 · 1 评论