算法实习准备之三:Logistic回归/SVM/KNN/Tensorflow


参考资料:《深度学习》科学出版社

机器学习算法复习(三)

监督学习是利用有标签的数据样本进行训练的一种机器学习方法。
回归问题:输入变量和输出变量均为连续变量的预测问题,等价于函数拟合。
常用的损失函数是平方损失函数。
分类问题:输入变量不限,输出变量为有限个离散变量的预测问题,从数据中学习一个分类器。
常用的评价分类器性能的指标是分类准确率:在给定的测试数据集上,分类器正确分类的样本数与总样本数之间的比值。

Logistic回归

Logistic回归是一种分类算法,与线性回归算法相关联。
Logistic函数(即为Sigmoid函数)

线性回归算法

线性回归算法的目标是学习到一个线性模型,对给定的数据样本可以准确预测出它的标记值。这一模型可表示为(每个数据样本只有一个属性值):在这里插入图片描述
算法采用均方误差作为衡量差异的度量方式,并采用最小二乘法对它进行求解。
在这里插入图片描述(忽略了b)
通过分别对w和b求导来求解最优的w和b值。
当每个数据样本有d个数据样本时:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1. KNN算法(K-最近邻算法):是一种基于实例的学习或者非参数化的分类方法,其原理是将新样本与训练集中的所有样本进行距离计算,找出距离最近的k个邻居,然后通过少数服从多数的方式进行分类。 2. MLP算法(多层感知机算法):是一种基于神经网络的分类方法,其中包含多个神经元层,每一层都有多个神经元,通过前向传播和反向传播的方式进行训练,可以用来解决非线性分类问题。 3. RandomForest算法(随机森林算法):是一种基于决策树的集成学习算法,它通过随机选择特征和样本,构建多个决策树,然后通过少数服从多数的方式进行分类,具有较好的分类效果和抗干扰能力。 4. Adaboost算法(自适应增强算法):是一种基于弱分类器的集成学习算法,它通过迭代的方式训练多个分类器,每次迭代都会调整样本权重,使得分类器更加关注分类错误的样本,从而提高整体分类的准确率。 5. SVM算法(支持向量机算法):是一种基于间隔最大化的分类方法,其原理是将数据映射到高维空间,找到一个超平面,使得两个类别的样本点在超平面上的距离最大,从而实现分类。 6. Dicisiontree算法(决策树算法):是一种基于树结构的分类方法,通过将数据集分成多个子集,每个子集对应一个节点,然后根据特定的条件进行划分,最终形成一棵决策树,可以用来解决非线性和多分类问题。 7. Logistic Regression算法(逻辑回归算法):是一种基于概率模型的分类方法,其原理是通过将数据映射到一个sigmoid函数上,将特征值转化为概率值,然后根据概率值进行分类。它常用于二分类问题,但也可以扩展到多分类问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值