ML
文章平均质量分 89
阿楷不当程序员
二战狗不想二战
展开
-
机器学习—图神经网络
通常交给GCN两个东西:1. 各节点输入特征;2. 网络结构图(邻接矩阵)一般邻接矩阵不是N*N的。聚合操作可以当做全连接层。原创 2023-12-29 11:42:53 · 824 阅读 · 0 评论 -
机器学习—卷积神经网络
卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一 [1-2] 。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariant classification),因此也被称为“平移不变人工神经网络(Shift-Invaria原创 2023-01-15 18:27:12 · 259 阅读 · 0 评论 -
机器学习—深度神经网络
深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。深度学习的概念源于人工神经网络的研究,含多个隐藏层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。研究深度学习的动机在于建立模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本等。原创 2023-01-15 00:06:58 · 324 阅读 · 0 评论 -
机器学习—决策树
决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。这一度量是基于信息学理论中熵的概念。决策树是一种树形结构,其中每个内部节点表示一个属性上原创 2022-09-27 09:55:39 · 698 阅读 · 0 评论 -
机器学习—集成算法
如模型1选取特征ABCD,模型2选取特征AB’CD,然后比较准确率。通过二重随机性,即数据和特征都是随机的,构造出来的每棵树基本都会不一样,结果也会不一样。前一次的树结果+当前一次的树结果;解释:如果某一数据在这次分类错误了,那么在下一次就会赋予它更大的权重。最终的结果:每个分类器根据自身的准确性来确定各自的权重,再合体。分类任务中,根据每棵树的结果,以结果相同最多的作为最终结果。回归任务中,将每棵树进行求和,再求平均作为最终结果。模型1.err < 模型2.err,则B特征重要。加入一棵树,要比原来强。原创 2022-09-19 16:10:40 · 469 阅读 · 0 评论 -
机器学习—逻辑回归模型
logistic回归是一种广义线性回归(generalized linear model),因此与多重线性回归分析有很多相同之处。它们的模型形式基本上相同,都具有 w‘x+b,其中w和b是待求参数,其区别在于他们的因变量不同,多重线性回归直接将w‘x+b作为因变量,即y =w‘x+b,而logistic回归则通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。如果L是logistic函数,就是logistic回归,如果L是多项式函数就是多项式回归。原创 2022-09-19 15:53:05 · 325 阅读 · 0 评论 -
机器学习—线性回归模型
线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。原创 2022-09-19 15:47:57 · 572 阅读 · 0 评论 -
机器学习—模型评估
模型评估用于评测一个模型的好坏,通常将训练集上的误差称为训练误差或经验误差,在新数据上应用的误差称为泛化误差。机器学习的目的是获得泛化误差最小的模型,所以要讲数据集拆分成三块:训练集、测试集、验证集。在训练过程中使用验证数据集来评估模型并据此更新超参数,训练结束后使用测试数据集评估训练好的最终模型的性能。原创 2022-09-19 15:37:13 · 375 阅读 · 0 评论