机器学习
cugzyc
Coding && Reading.
展开
-
tensorflow学习笔记
import tensorflow as tfhello = tf.constant('hello world')session = tf.Session()print(session.run(hello))import cv2print('hello world')import cv2img = cv2.imread('img0.jpg',1)#参数1 name 参数2...原创 2019-04-21 18:15:31 · 108 阅读 · 0 评论 -
深入理解反向传播
深入理解反向传播当前,训练机器学习模型的唯一方式是反向传播算法。深度学习框架越来越容易上手,训练一个模型也只需简单几行代码。但是,在机器学习面试中,也会考量面试者对机器学习原理的掌握程度。反向传播问题经常出现,不少人碰到时仍觉得十分棘手。最近,Medium上的一位机器学习初学者Ryan Gotesman,在学习吴恩达老师广受欢迎的Machine Learning课程时,遇到一些困难。...转载 2019-07-22 20:48:45 · 139 阅读 · 0 评论 -
暑期第一次测试
神经网络可以实现非线性分类和线性分类。(?)反向传播算法在进行误差更新时,神经元的误差更新与哪些因素有关?反向传播的作用构造损失函数的目的:1、通过梯度下降算法最小化损失函数2、最大程度的拟合模型参数knn算法中k不同取值影响分析当一个模型训练完后若发现训练集上的loss非常高,请问如何在不对代码进行全面排查的前提下,以最快的速度定位是模型本身的拟...原创 2019-07-22 17:52:54 · 156 阅读 · 0 评论 -
朴素贝叶斯分类
综述贝叶斯分类是一类分类算法的总称,这类算法均以贝叶斯定理为基础,故统称为贝叶斯分类,如朴素贝叶斯分类、贝叶斯网络分类算法等。其中朴素贝叶斯算法是有监督的学习算法,解决的是分类问题,是最简单的一种贝叶斯分类算法。但由于该算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响。朴素贝叶斯分类器采用了一些简化条件的假设,比如假设 x 的各特征是条件...原创 2019-07-26 11:32:46 · 294 阅读 · 0 评论 -
常用机器学习评估指标
常见机器学习评估指标 晓伟https://zhuanlan.zhihu.com/p/65663148机器学习评估指标黄言https://zhuanlan.zhihu.com/p/36305931Python机器学习笔记:常用评估指标的用法https://www.cnblogs.com/wj-1314/p/9400375.html【还讲了聚类算法的评估指标】评估指标用于评价模型的...原创 2019-07-25 16:02:40 · 365 阅读 · 1 评论 -
过拟合问题相关概念
根据数据集在当前模型参数下的情况判断参数拟合情况训练集与验证集不同表现与拟合情况从图中我们能够看出,模型在训练集上表现很好,但是在交叉验证集上表现先好后差。表明出现了过拟合。正则化、k折交叉验证,防止过拟合,提高模型的泛化能力。发生过拟合的主要原因可以有以下三点:(1)数据有噪声(2)训练数据不足,有限的训练数据(3)训练模型过度导致模型非常复杂解决过拟合...原创 2019-07-25 20:56:19 · 201 阅读 · 0 评论 -
BP神经网络
20世纪80年代中期,David Runelhart。Geoffrey Hinton和Ronald W-llians、DavidParker等人分别独立发现了误差反向传播算法(Error Back Propagation Training),简称BP,系统解决了多层神经网络隐含层连接权学习问题,并在数学上给出了完整推导。人们把采用这种算法进行误差校正的多层前馈网络称为BP网。人工神经网络无需事...原创 2019-07-19 20:10:30 · 522 阅读 · 0 评论 -
过拟合、正则化
详细讲解正则化以及L1、L2范数https://www.cnblogs.com/zhaopAC/p/9734225.html过拟合欠拟合原因以及解决方法https://www.cnblogs.com/zhhfan/p/10476761.htmlL1范数呢,假设的是模型的参数取值满足拉普拉斯分布,L2范数呢假设的模型参数是满足高斯分布,所谓的范式其实就是加上对参数的约束,使得模型更不会ove...转载 2019-07-19 17:48:25 · 212 阅读 · 0 评论 -
机器学习分类
机器学习通常分为四类监督学习 无监督学习 半监督学习 强化学习监督学习监督学习是从标记的训练数据来推断一个功能的机器学习任务。在监督学习中,每个实例都是由一个输入对象(通常为矢量)和一个期望的输出值(也称为监督信号)组成。监督学习算法是分析该训练数据,并产生一个推断的功能,其可以用于映射出新的实例。一个最佳的方案将允许该算法来正确地决定那些看不见的实例的类标签。监督学...转载 2019-07-19 16:48:48 · 1023 阅读 · 0 评论 -
胡论
为什么神经网络能进行线性分类和非线性分类?要预测的函数是你自己构造的,线性和非线性都取决于你,接下来要进行参数的预测,通过梯度下降算法(目前我就知道这一个)实现参数拟合。至于分类感觉有点像高中时候的动态规划问题被一条线分到两个不同的区域,两边的符号不同。以上都是我瞎猜的机器学习中引入L2范数(正则化项)的意义防止过拟合,保证模型的泛化能力。权重的平方...原创 2019-07-19 16:35:32 · 127 阅读 · 0 评论 -
神经网络学习笔记
https://www.cnblogs.com/charlotte77/p/5629865.htmlhttps://www.cnblogs.com/subconscious/p/5058741.html#fourth下面三张图示神经元模型下图是单层神经网络,也叫作感知器(机),注意和上面的变化:在原来神经元MP模型的“输入”位置添加神经元节点,标志其为“输入单元”,其余不变...原创 2019-07-19 11:33:19 · 392 阅读 · 0 评论 -
KNN算法介绍及代码实现
k-近邻法简介 k近邻法(k-nearest neighbor, k-NN)是1967年由Cover T和Hart P提出的一种基本分类与回归方法。它的工作原理是:存在一个样本数据集合,也称作为训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一个数据与所属分类的对应关系。输入没有标签的新数据后,将新的数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本最相似数...原创 2019-06-04 14:31:43 · 2742 阅读 · 0 评论 -
knn算法代码实现
knn算法分类时,分类器的性能也会受到多种因素的影响,如分类器设置和数据集等。不同的算法在不同数据集上的表现可能完全不同。import numpy as npimport matplotlib.pyplot as pltdef init(): #四组数据 两个参数表示武打镜头次数以及亲吻镜头次数 group = np.array([[1,101],[5,89],[108,...原创 2019-06-06 20:09:01 · 2043 阅读 · 1 评论 -
使用梯度下降算法解决线性回归拟合参数问题【单变量】
解决线性回归的参数求解步骤1、构造假设函数hθ(x)=θ0+θ1x假设函数的向量形式2、构造损失函数这里我们乘上1/2是为了方便后面求导函数时结果更加简洁。3、接下来目标就是最小化损失函数,使我们的拟合函数能够最大程度地对目标函数y进行拟合。最小化损失函数使用的思想是梯度下降算法。先选择一个向量θ作为初始向量,然后不停对它进行迭代,每次向量中每个元素减去步...原创 2019-05-19 21:06:59 · 1041 阅读 · 1 评论 -
梯度下降算法
梯度 在微积分里面,对多元函数的参数求∂偏导数,把求得的各个参数的偏导数以向量的形式写出来,就是梯度。比如函数f(x,y)f(x,y), 分别对x,y求偏导数,求得的梯度向量就是(∂f/∂x0,∂f/∂y0)T,简称grad f(x,y)或者▽f(x,y)。对于在点(x0,y0)的具体梯度向量就是(∂f/∂x0,∂f/∂y0)T.或者▽f(x0,y0)。如果是3个参数的向量梯度,就是...原创 2019-05-18 14:36:09 · 734 阅读 · 0 评论 -
AI环境搭建
1、pycharm专业版破解参考教程https://blog.csdn.net/guozuofeng/article/details/903398712、anacode下载链接https://www.anaconda.com/download/一篇超级详细的教程https://blog.csdn.net/ITLearnHall/article/details/81708148...原创 2019-05-21 19:04:12 · 783 阅读 · 0 评论 -
梯度下降(GD)算法再学习
前言 目的 实例讲解 单变量函数的梯度下降 多变量函数的梯度下降 关于参数 局部最优VS全局最优 解决回归问题 梯度下降算法的优化 Batch gradient descent(BGD) Stochastic gradient descent(SGD) Mini-batch gradient descent(MBGD) 前言在机器学习算法中,对于很多...原创 2019-07-28 15:33:04 · 1854 阅读 · 2 评论