Machine Learning
文章平均质量分 91
KiraFenvy
华工学生一枚
展开
-
【Machine Learning】23.Anomaly Detection 异常检测
异常数据的检测,这实际上也是一种无监督学习(因为不知道什么是异常)原创 2022-11-01 17:16:00 · 500 阅读 · 0 评论 -
【Machine Learning】22.K-means聚类
无监督学习的一个代表性问题,聚类,而K-means是聚类算法当中最经典的。原创 2022-11-01 16:15:46 · 466 阅读 · 0 评论 -
【Machine Learning】21.决策树
介绍关于决策树的内容,代码来源于Ng Andrew课程配套代码例子是用一些特征来判断蘑菇是否有毒,使用决策树模型。原创 2022-10-30 17:10:50 · 503 阅读 · 0 评论 -
【Machine Learning】20.应用机器学习的一些建议
关于模型的评估以及欠拟合还是过拟合等原创 2022-10-27 17:55:57 · 1075 阅读 · 0 评论 -
【Machine Learning】19.多分类实践:手写数字分类
之前讲了多分类问题和softmax函数,这里是实践内容。原创 2022-10-26 23:52:34 · 1026 阅读 · 0 评论 -
【Machine Learning】18.Softmax函数
在softmax回归和具有softmax输出的神经网络中,生成N个输出,并选择一个输出作为预测类别。在这两种情况下,向量{z}\mathbf{z}{z}由应用于softmax函数的线性函数生成。softmax函数将{z}\mathbf{z}{z}转换为如下所述的概率分布。应用softmax后,每个输出将介于0和1之间,并且输出将相加到1,因此它们可以被解释为概率。较大的输入将对应于较大的输出概率。经过使用指数形式的Softmax函数能够将差距大的数值距离拉的更大。aj=e。原创 2022-10-25 18:20:10 · 1370 阅读 · 0 评论 -
【Machine Learning】17.多分类问题
之前说的都是简单的二分类问题,今天扩展到多分类问题。原创 2022-10-07 17:25:14 · 1400 阅读 · 0 评论 -
【Machine Learning】16.激活函数ReLU
激活函数这里有三种不同的激活函数如何选择激活函数?这是输出层的选择, 如果输出必须为0-1(二分类问题),则sigmoid,如果必须非负则ReLU(比如房价),其他回归问题一般就linear隐藏层的选择:选ReLU比较多(一般都是relu),因为运算速度快,梯度下降速度快,尽量别用linear激活函数,这样跟线性回归没区别为什么需要激活函数:激活函数决定了,一个神经元是否应该通过加权求和并添加偏差而被激活。激活函数的目的是为神经元添加非线形的输入。原创 2022-10-07 00:25:26 · 1749 阅读 · 0 评论 -
【Machine Learning】15.简单神经网络练习
本文是对神经网络的练习和应用,本文利用神经网络进行图像识别和分类,一些包含0和1的手写体的识别和分类。原创 2022-10-06 23:10:54 · 839 阅读 · 0 评论 -
【Machine Learning】14.Advanced Learning 简单神经网络介绍
进入深度学习之前,先看看深度学习最重要的东西——神经网络。原创 2022-09-28 21:31:36 · 1389 阅读 · 1 评论 -
【Machine Learning】13.逻辑回归小结and练习
这节回顾一下之前的逻辑回归、正则化的理论知识并实践(光看代码不敲代码可不行啊)原创 2022-09-26 01:36:29 · 620 阅读 · 1 评论 -
【Machine Learning】12.过拟合及正则化
m is the number of training examples in the data set 数据集数量。不同点在于正则化项 regularization term。线性回归的梯度下降和逻辑回归的梯度下降表达式一样,区别只是。增加训练数据,正则化,选择更加相关的特征(特征工程)注意只有参数w正则化,b并没有。这是正则化之后的梯度下降表达式。线性回归梯度下降代码实现。逻辑回归梯度下降代码实现。原创 2022-09-24 16:09:12 · 400 阅读 · 0 评论 -
【Machine Learning】11.用Scikit-Learn逻辑回归
又到大伙最爱的调包时间了,这里讲逻辑回归在Scikit-Learn中要调什么包原创 2022-09-24 15:23:43 · 322 阅读 · 0 评论 -
【Machine Learning】10.逻辑回归的梯度下降
在线性回归多项式回归中有的梯度下降,在逻辑回归中同样有。原创 2022-09-24 15:08:27 · 599 阅读 · 0 评论 -
【Machine Learning】9.逻辑回归产生的逻辑损失
主要研究逻辑回归的损失和代价问题,理论与实践结合。原创 2022-09-24 14:44:00 · 1131 阅读 · 1 评论 -
【Machine Learning】8.逻辑回归及其在分类问题的应用
在分类问题之前,我们要知道sigmoid函数,以及逻辑回归是sigmoid函数在线性回归上的应用。原创 2022-09-23 23:07:20 · 626 阅读 · 0 评论 -
【Machine Learning】7.使用Scikit-Learn进行线性回归(2)一般方程的封闭解
基本同上节,但线性回归的拟合方式不同,这次不需要数据归一化和梯度下降,之前调的库和没有派上用场原创 2022-09-23 22:08:38 · 354 阅读 · 0 评论 -
【Machine Learning】6.使用Scikit-Learn进行线性回归(1)梯度下降
前几节里面,都是手写的梯度下降、线性回归和归一化,但明明有现成的库为什么不调包呢,因此这里介绍使用Scikit-Learn进行线性回归的方法原创 2022-09-23 21:54:42 · 363 阅读 · 0 评论 -
【Machine Learning】5.特征工程和多项式回归
特征工程,使用线性回归机制来拟合非常复杂甚至非线性(存在xn)的函数。原创 2022-09-22 15:43:20 · 1018 阅读 · 0 评论 -
【Machine Learning】4.特征缩放和学习率
本节主要介绍如何处理多个特征,以及怎么调整多元线性回归时的学习率α。原创 2022-09-22 15:22:24 · 420 阅读 · 0 评论 -
【Machine Learning】3.多元线性回归
本文包括多元线性回归代价计算和梯度下降的理论部分和实践部分,并留有课后作业一般的回归步骤:问题描述->导入数据集并检查分析数据意义和特征->repeat{梯度计算->梯度下降->代价计算(评估值的优劣)}->预测。原创 2022-09-22 11:52:18 · 321 阅读 · 0 评论 -
【Machine Learning】2.代价函数和梯度下降
are updated simultaneously.(w和b同时更新,即计算所用的w值和b值均为旧值),即代价)The measure is called the。一个用来预测的线性模型。原创 2022-09-22 10:08:59 · 184 阅读 · 0 评论 -
【Machine Learning】1.numpy及matplotlib.pyplot的使用入门(1)
首先,这只是介绍一些最常用最简单的用法,具体还得查文档。原创 2022-09-22 00:04:23 · 460 阅读 · 0 评论