机器学习
文章平均质量分 82
机器学习
universe_1207
这个作者很懒,什么都没留下…
展开
-
集成学习(bagging/boosting/stacking)BERT,Adaboost
集成学习是集合多个弱监督模型,通过一定的结合策略,得到一个更好更全面的强监督模型的过程.潜在的思想是即使某一个弱分类器得到了错误的预测,其他的弱分类器也可以将错误纠正回来原创 2023-03-01 20:43:09 · 592 阅读 · 1 评论 -
聚类分析--基本原理、方法(Kmeans,层次聚类)
聚类分析就是将研究对象根据一些特征指标,把比较相似的研究对象,按一定的方式归为同类。原创 2023-02-09 22:16:38 · 14320 阅读 · 2 评论 -
精确率、召回率、AUC、ROC
机器学习常用评价指标原创 2022-08-22 15:32:39 · 199 阅读 · 0 评论 -
LSTM公式原理+Keras Pytorch LSTM中参数对比+每层LSTM参数计算
LSTM基础知识记得点赞喔(*^▽^*)原创 2022-06-03 16:09:39 · 1255 阅读 · 0 评论 -
李航_统计学习
文章目录统计学习介绍假设空间策略损失函数与风险函数经验风险最小化结构风险最小化(SRM)算法1.5正则化与交叉检验1.6泛化能力统计学习介绍统计学习三要素:模型、算法、策略模型就是要学习的条件概率分布(概率模型)/决策函数(非概率模型)统计学习(statistical learning)是关于计算机基于数据构建概率统计模型并运用模型对数据进行预测与分析的一门学科.统计学习也称为统计机器学习 (statistical machine learning).统计学习关于数据的基本假设是同类数据具原创 2022-03-16 21:39:00 · 617 阅读 · 0 评论 -
K-means( k均值聚类法)
文章目录K-means算法好家伙!我居然无知到了这个地步了!!怎么连K-means也要回头翻书了,赶紧记一下以免以后丢人K-means样本集D={x1,x2,...,xn}D=\{x_1,x_2,...,x_n\}D={x1,x2,...,xn}簇划分C={C1,...,Ck}C =\{C_1,...,C_k\}C={C1,...,Ck}求 E=min∑i=1k∑xj∈Ci∣∣xj−μi∣∣2E=\min\sum\limits_{i=1}^k\sum\limits_{x_j\in C原创 2021-09-07 18:22:20 · 217 阅读 · 1 评论 -
关于Resnet网络
知乎大佬总结作者:刘昕宸链接:https://www.zhihu.com/question/64494691/answer/1545759510来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。ResNet解决的其实是一个不符合预期的现象。做实验如果出现了不符合预期的现象,并且在我们的预期没什么问题的情况下,那么一定是哪里出了问题,并且这个问题非常值得解决!前提:网络的不同层可以提取不同抽象层次的特征,越深的层提取的特征越抽象。因此深度网络可以整合low-mediu原创 2021-05-24 16:20:46 · 157 阅读 · 0 评论 -
表征学习
文章目录机器学习领域,表征学习(或特征学习)是一种技术的集合将原始数据转换成为能够被机器学习有效开发的数据特征学习算法出现前,研究人员需要利用手动特征工程(manual feature learning)从原始数据的领域知识(domain knowledge)建立特征+算法。手动特征工程困难、昂贵、耗时、并依赖于强大专业知识。特征学习弥补了这一点,它使得机器不仅能学习到数据的特征,并能利用这些特征来完成一个具体的任务。 预测性学习(Predictive Learning):通过学习原创 2020-07-02 16:20:24 · 529 阅读 · 0 评论 -
代损+NP-hard
文章目录代理损失函数NP-hard问题代理损失函数当原本的损失函数不方便计算时,就要用到代理损失函数了二分类问题中,常用的损失函数是0-1损失数据集:D:{(X1,y1),...,(Xn,yn)}D:\{(X_1,y_1),...,(X_n,y_n)\}D:{(X1,y1),...,(Xn,yn)}0-1损失:l(y,y^)=∑i=1mχ(yi≠y^i).l(y, \hat y)=\sum_{i=1}^m\chi(y_i\neq\hat y_i).l(y,y^)=i=1∑mχ(yi原创 2020-06-17 21:16:43 · 236 阅读 · 0 评论 -
李航_感知机
文章目录感知机感知机分类策略感知机学习算法原始算法对偶算法因为感知机,我被周某人嘲笑了,在哪里跌倒就要在哪里爬起来并写一篇博客!感知机输入空间:χ⊆Rn\chi\subseteq R^nχ⊆Rn输出空间:y={+1,−1}y=\{+1,-1\}y={+1,−1}函数:f(x)=sign(w⋅x+b)f(x)=sign(w\cdot x+b)f(x)=sign(w⋅x+b) sign(...原创 2020-03-15 21:15:51 · 155 阅读 · 0 评论 -
信息增益
文章目录熵(entropy)条件熵(conditional entropy)信息增益(information gain)信息增益算法信息增益比熵(entropy)信息论中,熵表示随机变量不确定性的度量XXX是一个取有限个值的离散随机变量,概率分布为:P(X=xi)=pi,i=1,...,nP(X=x_i)=p_i,i=1,...,nP(X=xi)=pi,i=1,...,n则XXX的...原创 2020-03-12 21:00:32 · 466 阅读 · 0 评论