机器学习
文章平均质量分 68
dracularking
Java, Python, 机器学习,努力思考,创新创意,价值创造
展开
-
机器学习12-基本感知器
这一行代码是一个外部循环,它控制训练的迭代次数,即训练的轮数。`self.epochs` 表示训练的总轮数,_ 是用作循环中临时变量的一个惯例,表示在循环体中不需要使用的值。这一行代码调用了 predict 方法,对当前输入样本 X[i] 进行预测,得到感知器的输出结果 y。这一行代码计算了当前样本的预测误差 e,即期望输出 d[i] 与感知器预测输出 y 的差值。每个输入节点都与输出节点连接,并且具有一个对应的权重参数,用来调节输入的。3. 激活函数根据加权求和的结果输出一个二进制值,作为感知器的输出。原创 2024-02-13 12:19:48 · 1488 阅读 · 0 评论 -
机器学习11-前馈神经网络识别手写数字1.0
在这里,我们有一个包含 128 个神经元的隐藏层,以及一个包含 10 个神经元的输出层。输出层产生神经网络的输出,这里是一个包含 10 个元素的向量,每个元素表示对应类别的概率。前两张画笔比较细,第三张时minst的5,第四张是用了粗笔自己写的5,最终结果是就minst预测对了。,它在输入层和输出层之间包含一个或多个隐藏层,通过学习逐步提取和组合特征来进行分类或回归任务。输入层接收输入数据,这里是一个 28x28 的灰度图像,每个像素值表示图像中的亮度值。在这个示例中,使用的神经网络是一个简单的。原创 2024-02-09 11:48:16 · 1657 阅读 · 1 评论 -
机器学习10-特征缩放
通过除以特征的标准差,可以将特征的尺度统一为相似的范围。这是因为不同特征可能具有不同的数值范围,如果某个特征的值较大,它可能会在模型中占据主导地位,而忽略其他特征。在实际应用中,特征缩放是机器学习中的一项常见预处理步骤,有助于确保不同特征之间的尺度不同不会影响模型的性能。通过减去均值并除以标准差的方式,将数据的分布调整为均值为 0,标准差为 1。其中, x 是原始数据中的每个数据点, mean 是均值, std 是标准差。方法完成的,该方法计算数据的均值和标准差,并将数据进行相应的缩放。原创 2024-02-09 08:28:07 · 1641 阅读 · 0 评论 -
机器学习9-随机森林
这意味着每个决策树的训练数据都是从原始数据集中随机选择的,并且每个样本有可能在一个树中被多次选择,而在另一个树中可能一次都没有被选择。(Random Forest)是一种集成学习方法,用于改善单一决策树的性能,通过在数据集上构建多个决策树并组合它们的预测结果。4. 投票机制:随机森林中的每个决策树都对新样本进行分类,最终的分类结果是通过投票机制确定的。即,每个树投票给某一类别,最终选择得票最多的类别作为随机森林的最终预测结果。每个决策树都是一种分类器,通过对输入数据进行一系列的决策来进行分类。原创 2024-02-09 08:23:50 · 1727 阅读 · 0 评论 -
机器学习8-决策树
3. 终止条件:在每个节点处,都会检查是否满足某个终止条件,例如节点中的样本数量小于阈值,或者树的深度达到预定的最大深度。1. 可解释性:决策树的规则易于理解,可视化呈现直观的分裂过程,使决策过程变得透明。3. 非参数性:不对数据的分布做出具体假设,因此对于不同类型的数据集都具有灵活性。4. 特征重要性:决策树可以提供每个特征的重要性,帮助识别影响预测的关键因素。1. 选择特征:从所有特征中选择一个最佳的分裂标准,以将数据集分成两个子集。2. 适应性:能够适应不同类型的数据,包括离散型和连续型特征。原创 2024-02-09 08:21:42 · 2273 阅读 · 3 评论 -
机器学习7-K-近邻算法(K-NN)
(K-近邻算法,简称KNN)是一种基本的监督学习算法,用于解决分类和回归问题。KNN的核心思想是基于距离度量,在特征空间中找到最近的K个样本,然后使用它们的标签进行决策。原创 2024-02-04 10:03:30 · 602 阅读 · 0 评论 -
机器学习6-逻辑回归
逻辑回归也可以扩展到处理多分类问题,这时通常使用一对多(One-vs-Rest)或一对一(One-vs-One)的方法。对于逻辑回归,常用的损失函数是交叉熵损失函数(Cross-Entropy Loss),也称为对数损失函数。逻辑回归模型假设输出是二进制的,通常表示为0或1。3. 市场营销:预测客户是否购买某个产品或服务,基于客户的购物历史、在线行为等特征。训练完成后,可以使用学到的参数确定决策边界,即在特征空间中将两个类别分开的边界。因为没有画出原始数据,无法直观比较,不过对测试数据的预测还是比较准的。原创 2024-02-03 13:03:30 · 1588 阅读 · 0 评论 -
机器学习5-线性回归之损失函数
这个过程是通过迭代优化算法来找到最优参数,使得模型的预测值与实际值之间的均方误差最小。我们通过最小化损失函数来找到最优的参数。这就是对于线性回归的均方误差损失函数的偏导数计算过程。线性回归的目标是找到一条直线,使得预测值与实际值的平方差最小化。会根据这些偏导数的信息,迭代更新参数,直至损失函数收敛到最小值。求解损失函数的过程就是找到能够使损失函数最小化的模型参数。3. 更新参数:使用梯度信息来更新参数,减小损失函数值。2. 计算梯度:计算损失函数对每个参数的偏导数。是学习率,控制每次参数更新的步长。原创 2024-02-03 12:32:22 · 727 阅读 · 0 评论 -
机器学习4-多元线性回归
(Multiple Linear Regression)是线性回归的一种扩展形式,用于建立因变量与多个自变量之间的关系。在简单线性回归中,我们考虑一个因变量和一个自变量之间的线性关系,而多元线性回归允许我们考虑多个自变量对因变量的影响。多元线性回归在实际应用中非常常见,例如在经济学中预测商品销售额,医学中预测疾病发生率,工程学中预测产品性能等。与模型预测值之间的误差,通常使用最小二乘法进行优化。 时,通过带入这些值,就可以预测相应的因变量值。多元线性回归的目标是找到合适的回归系数。原创 2024-01-31 09:40:00 · 814 阅读 · 1 评论 -
机器学习3-简单线性回归
的实际数据是接近的,符合拟合线的线性规律,预测是。来预测学习成绩,给出现有数据,用来训练模型并。原创 2024-01-29 17:50:07 · 471 阅读 · 1 评论 -
机器学习2-简单的二分类问题
大于0.5的,打上1的标记,) 进行预测,得到预测值。,小于0.5的,打上0的。模型预测使用测试集 (原创 2024-01-29 17:45:58 · 560 阅读 · 1 评论 -
机器学习1-种类及应用
半监督学习结合了监督学习和无监督学习的元素,使用有标签和无标签的数据进行训练。在监督学习中,模型通过使用已标记的训练数据(包括输入和对应的输出)来学习预测目标变量。自监督学习是一种无监督学习的变体,其中模型从输入数据中生成辅助目标,然后使用这些目标进行学习。无监督学习中,模型处理未标记的数据,试图从中发现隐藏的结构或模式。迁移学习利用在一个任务上学到的知识,应用到与之相关的另一个任务上,从而加速学习过程。元学习着重于模型能够在面对新任务时快速学习的能力,它关注的是模型在学习过程中的学习。原创 2024-01-29 17:42:14 · 481 阅读 · 0 评论