机器学习
文章平均质量分 72
Tiger-Li
大家好
展开
-
【无标题】
比如极端情况下,我们只搜索出了一个结果,且是准确的,那么Precision就是100%,但是Recall就很低;召回率是指检索出的相关文档数和文档库中所有的相关文档数的比率,衡量的是检索系统的查全率。召回率,顾名思义,就是从关注领域中,召回目标类别的比例;一般来说,Precision就是检索出来的条目(比如:文档、网页等)有多少是准确的,Recall就是所有准确的条目有多少被检索出来了。P和R指标有时候会出现的矛盾的情况,这样就需要综合考虑他们,最常见的方法就是F-Measure(又称为F-Score)。转载 2022-10-03 14:05:48 · 1481 阅读 · 0 评论 -
2021-07-16
前言人工智能近年来可以说是一门显学. 作为人工智能的一个子集, 机器学习的新成果新应用也是穷出不尽, 各种资料和教程也可谓是汗牛充栋. 然而, 这些资料或多或少给人一种照本宣科, 千篇一律的感觉, 而且常常让初学者读后似懂未懂.在这里, 我会尝试从几个耳熟能详的模型的相似处作为切入点, 穿插相关理论和概念, 希望读者能从中窥视一斑机器学习的原理, 过程和局限.wx+b我们常说, 机器学习有三大任务: 回归, 分类, 聚类. 从某种意义上讲, 实际这三种任务的"目标"和"内涵"是相似的, 区别转载 2021-07-16 09:52:23 · 1209 阅读 · 0 评论 -
拉格朗日函数最优化问题
目的:将有约束条件的函数最优化问题通过拉格朗日函数转化为无条件的函数最优化问题。条件极值最优化问题:对于无条件的函数最优化问题,常用的有3种方式:梯度下降:求解一阶导数,其实就是使用泰勒一阶展开逼近最优解 L-BFGS:求解二阶导数,其实是使用泰勒二阶展开逼近 IIS对于有条件约束的函数最优化问题,该怎么求呢?数学上给出了两种求解的方式,下面以求解二元函数的条件极值为例:例:求解二元函数条件下的极值的方法与步骤:方法一 化条件极值为无条件极值方法二 拉格朗...转载 2021-07-15 13:37:59 · 7047 阅读 · 0 评论 -
最优化问题-概述
每一天,我们的生活都面临无数的最优化问题: 上班怎么选择乘车路线,才能舒服又快速的到达公司;旅游如何选择航班和宾馆,既省钱又能玩的开心; 跳槽应该选择哪家公司,钱多、事少、离家近,前台妹子颜值高;买房子应该选在哪里,交通发达有学区,生活便利升值快。可以看出,上面所有的问题都面临无数的选择, 我们会根据自己的偏好对每个选择打一个不同的分数,再从所有的选择中找出最优的一个。这个寻求最优解的过程其实就是最优化问题,我们要打的分数就称为目标函数。最优化问题往往还要面临一定的约束条件,比如对旅行路线的选择,总转载 2021-07-15 13:15:35 · 2898 阅读 · 0 评论 -
卷积神经网络图片的尺寸变化及其推导
大部分转自:https://blog.csdn.net/qq_36444039/article/details/103984502笔者以前搭建深度学习模型的时候,对于每一步卷积池化后图片的尺寸和大小很迷茫,不知道如何计算的。这里,我给大家分享几个公式,帮助大家理解。不明白的欢迎在下方留言。1、卷积层(Conv Layer)的输出张量(图像)的大小定义如下:O=输出图像的尺寸。I=输入图像的尺寸。K=卷积层的核尺寸N=核数量S=移动步长P =填充数输出图像尺寸的计算公式如下:上述转载 2021-02-16 11:20:48 · 2811 阅读 · 0 评论 -
二项分布,柏松分布和正态分布
主要介绍以下三种相互关联的概率分布:离散型随机变量的概率分布:二项分布,柏松分布连续性随机变量的概率分布:正态分布。一,二项分布满足条件:1)每次试验中事件只有两种结果:事件发生或者不发生,如硬币正面或反面,患病或没患病;2)每次试验中事件发生的概率是相同的,每次抛硬币正面和反面的概率都为0.5;每次投篮命中率都为0.6等等。3)n次试验的事件相互之间独立。特征:...转载 2019-11-24 19:35:33 · 8173 阅读 · 0 评论 -
概率函数P(x)、概率分布函数F(x)、概率密度函数f(x)
写在前面:进入主题前,先明确几个概念:离散型变量(或取值个数有限的变量):取值可一一列举,且总数是确定的,如投骰子出现的点数(1点、2点、3点、4点、5点、6点)。连续型变量(或取值个数无限的变量):取值无法一一列举,且总数是不确定的,如所有的自然数(0、1、2、3……)。离散型变量取某个值xi的概率P(xi)是个确定的值(虽然很多时候我们不知道这个值是多少),即P(xi)≠0:例如,投一...转载 2019-11-24 19:20:58 · 5145 阅读 · 3 评论 -
神经网络权值为什么不能初始化为零(1)
写在前面:该篇文章的内容以及相关代码(代码在最后),都是我亲自手敲出来的,相关结论分析也是花了挺长时间做出来的,如需转载该文章,请务必先联系我,在后台留言即可。在深度学习中,神经网络的权重初始化方式非常重要,其对模型的收敛速度和性能有着较大的影响。一个好的权值初始值有以下优点:梯度下降的收敛速度较快 深度神经中的网络模型不易陷入梯度消失或梯度爆炸问题该系列共两篇文章,我们主要讨论以下两...转载 2019-11-15 14:31:29 · 7153 阅读 · 0 评论 -
深度学习中神经网络的几种权重初始化方法
深度学习中神经网络的几种权重初始化方法在深度学习中,神经网络的权重初始化方法对(weight initialization)对模型的收敛速度和性能有着至关重要的影响。说白了,神经网络其实就是对权重参数w的不停迭代更新,以期达到较好的性能。在深度神经网络中,随着层数的增多,我们在梯度下降的过程中,极易出现梯度消失或者梯度爆炸。因此,对权重w的初始化则显得至关重要,一个好的权重初始化虽...转载 2019-11-15 14:30:13 · 417 阅读 · 0 评论 -
神经网络中权值初始化的方法
from:http://blog.csdn.net/u013989576/article/details/76215989权值初始化的方法主要有:常量初始化(constant)、高斯分布初始化(gaussian)、positive_unitball初始化、均匀分布初始化(uniform)、xavier初始化、msra初始化、双线性初始化(bilinear)常量初始化(const...转载 2019-11-13 09:32:43 · 628 阅读 · 0 评论 -
神经网络训练中Epoch、batch_size、iterator的关系
为了理解这些术语的不同,需要先了解些机器学习术语,如:梯度下降梯度下降这是一个在机器学习中用于寻找最佳结果(曲线的最小值)的迭代优化算法。梯度的含义是斜率或者斜坡的倾斜度。下降的含义是代价函数的下降。算法是迭代的,意思是需要多次使用算法获取结果,以得到最优化结果。梯度下降的迭代性质能使欠拟合的图示演化以获得对数据的最佳拟合。梯度下降中有一个称为学习率的参量。如上图...转载 2019-10-22 10:40:35 · 387 阅读 · 0 评论 -
训练神经网络时如何确定batch size?
前言当我们要训练一个已经写好的神经网络时,我们就要直面诸多的超参数了。这些超参数一旦选不好,那么很有可能让神经网络跑的还不如感知机。因此在面对神经网络这种容量很大的model前,是很有必要深刻的理解一下各个超参数的意义及其对model的影响的。回顾简单回顾一下神经网络的一次迭代过程:即,首先选择n个样本组成一个batch,然后将batch丢进神经网络,得到输出结果。再将输出结果...转载 2019-10-21 16:59:27 · 1348 阅读 · 0 评论 -
机器学习算法 原理、实现与实践 —— 感知机与梯度下降
机器学习算法 原理、实现与实践 —— 感知机与梯度下降 神经网络http://www.cnblogs.com/ronny/p/ann_01.html 机器学习算法 原理、实现与实践 —— 感知机与梯度下降 一、前言1,什么是神经网络?人工神经网络(ANN)又称神经网络(NN),它是一种受生物学启发而产生的一种模拟人脑的学习系统转载 2017-02-04 20:49:19 · 465 阅读 · 0 评论 -
BP神经网络和感知器有什么区别?
BP神经网络和感知器有什么区别?推荐于2016-11-15 01:48:081、BP神经网络,指的是用了“BP算法”进行训练的“多层感知器模型”。 2、感知器(MLP,Multilayer Perceptron)是一种前馈人工神经网络模型,其将输入的多个数据集映射到单一的输出的数据集上,可以解决任何线性不可分问题。3、多层感知器就是指得结构上多层的原创 2017-02-04 20:45:10 · 5170 阅读 · 0 评论 -
感知机介绍及实现
http://blog.csdn.net/fengbingchun/article/details/50097723感知机介绍及实现2015-11-29 17:32 2104人阅读 评论(1) 收藏 举报 分类:Neural Network(12) 版权声明:本文为博主原创文章,未经博主允许不得转载。转载 2017-02-04 20:51:13 · 465 阅读 · 0 评论 -
神经网络和深度学习简史(第一部分):从感知机到BP算法
http://it.sohu.com/20160123/n435630017.shtml神经网络和深度学习简史(第一部分):从感知机到BP算法机器之心Synced2016-01-23 21:44:28阅读(1849)评论(0) 来自Andrey Kurenkov 作者:Andrey Kurenkov 机器之心编译出品转载 2017-02-04 20:52:52 · 3780 阅读 · 0 评论 -
双曲函数 tanh是什么函数
原型:extern float tanh(float x); 用法:#include 功能:求x的双曲正切值 说明:tanh(x)=(e^x-e^(-x))/(e^2+e^(-x)) 举例: // tanh.c #include #include main() { float x;转载 2017-02-06 20:37:57 · 18843 阅读 · 0 评论 -
一文读懂机器学习,大数据/自然语言处理/算法
http://www.36dsj.com/archives/20382?utm_source=tuicool一文读懂机器学习,大数据/自然语言处理/算法全有了…… 数控小V 2015-01-06 11:27:10 干货教程 评论(78)作者:计算机的潜意识在本篇文章中,我将对机器学习做个概要的介绍。本文的目的是能让即便完全不了解机器学习的人也能了解机转载 2017-02-06 20:59:35 · 399 阅读 · 0 评论 -
一文读懂 CNN、DNN、RNN 内部网络结构区别
http://network.chinabyte.com/269/13936269.shtml一文读懂 CNN、DNN、RNN 内部网络结构区别2016-10-24 16:07:00 作者:36大数据 分类 : 比特网 从广义上来说,NN(或是更美的DNN)确实可以认为包含了CNN、RNN这些具体的变种形式。在实际应用中,所谓的深度神转载 2017-02-06 20:13:16 · 7228 阅读 · 0 评论 -
深度学习经典教程
斯坦福http://ufldl.stanford.edu/wiki/index.php/UFLDL教程Theano官网文档http://www.deeplearning.net/tutorial/原创 2017-02-06 22:27:15 · 429 阅读 · 0 评论 -
图像卷积运算
http://blog.sina.com.cn/s/blog_4aa4593d01014dty.html图像卷积运算 (2012-04-16 11:10:58)转载▼标签: 杂谈分类: 遥感ConvolutionConvolution is the most im转载 2017-02-07 10:03:35 · 3287 阅读 · 0 评论 -
一文读懂卷积神经网络CNN
http://www.open-open.com/lib/view/open1425626861103.html自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此 博文,以其与人交流,互有增益。正文之转载 2017-02-07 10:07:08 · 650 阅读 · 0 评论 -
卷积算子计算方法(卷积运算)
[置顶] 卷积算子计算方法(卷积运算)标签: cnn卷积运算卷积操作卷积核卷积算子2015-10-08 10:43 3096人阅读 评论(2) 收藏 举报 分类:CNN(5) Deep Learning(5) 版权声明:本文为原创文章,水平有限,欢迎转载,但请注明转载出处http://blog.csdn.net/niuwei22007,转载 2017-02-07 10:51:21 · 3198 阅读 · 0 评论 -
如何理解“卷积运算”, 在0-t时刻的所有输入在所考察系统的叠加。 要想看系统在哪个时刻的相应,就把t限制在哪个值
http://blog.sina.com.cn/s/blog_80556b34010186hf.html如何理解“卷积运算” (2012-11-03 11:19:58)转载▼标签: 杂谈分类: 嵌入式卷积这个东东是“信号与系统”中论述系统对输入信号的响应而提出的。因为是对模拟转载 2017-02-07 10:28:36 · 2700 阅读 · 0 评论 -
BP神经网络C++代码
BP神经网络2015-07-24 16:19 108人阅读 评论(0) 收藏 举报神经网络基本结构:人工神经网络由神经元模型构成,这种由许多神经元组成的信息处理网络具有并行分布结构。每个神经元具有单一输出,并且能够与其它神经元连接;存在许多(多重)输出连接方法,每种连接方法对应一个连接权系数。可把 ANN 看成是以处理单元 PE(processing eleme转载 2017-02-07 15:58:40 · 918 阅读 · 0 评论 -
解读神经网络十大误解,再也不会弄错它的工作原理
http://synchuman.baijia.baidu.com/article/437961解读神经网络十大误解,再也不会弄错它的工作原理机器之心 Synced 05月05日 09:44神经网络 误解 分类 :互联网阅读:1506 抢沙发神经网络是机器学习算法中最流行和最强大的一类。但在作者看来,因为人们对神经网络工作原理存在误解转载 2017-02-07 19:14:11 · 2118 阅读 · 0 评论 -
使用python写神经网络模型之分类器
http://blog.csdn.net/eric_doug/article/details/51769644使用python写神经网络模型之分类器标签: python神经网络2016-06-27 17:13 783人阅读 评论(0) 收藏 举报 分类:机器学习版权声明:本文为博主原创文章,原文链接地址转载 2017-02-07 19:40:44 · 1256 阅读 · 0 评论 -
TensorFlow 深度学习笔记 从线性分类器到深度神经网络
http://www.cnblogs.com/hellocwh/p/5515421.htmlTensorFlow 深度学习笔记 从线性分类器到深度神经网络转载请注明作者:梦里风林Github工程地址:https://github.com/ahangchen/GDLnotes欢迎star,有问题可以到Issue区讨论官方教程地址视频/字幕下载转载 2017-02-07 19:43:48 · 396 阅读 · 0 评论 -
如何简单形象又有趣地讲解神经网络是什么?(知乎) 说的人很多,理解很充分
https://www.zhihu.com/question/22553761如何简单形象又有趣地讲解神经网络是什么?有网友在 Quora 上提问:对于那些非计算机科学行业的人,你会如何向他们解释机器学习和数据挖掘? 斯坦福大学的印度学生、机器学习爱好者 PararthShah 在2012年12月22日的使用买芒果的例子,非常经典易懂。如转载 2017-02-07 19:59:59 · 21676 阅读 · 0 评论 -
BP神经网络(完整的理论和经验公式)
http://blog.csdn.net/runatworld/article/details/50774215BP神经网络2016-03-01 17:27 271人阅读 评论(0) 收藏 举报 分类:数据挖掘 Algorithm(3) 今天来讲BP神经网络,神经网络在机器学习中应用比较广泛,比如函数逼近,转载 2017-02-07 20:16:16 · 46803 阅读 · 4 评论 -
神经网络浅讲:从神经元到深度学习
神经网络浅讲:从神经元到深度学习 神经网络是一门重要的机器学习技术。它是目前最为火热的研究方向--深度学习的基础。学习神经网络不仅可以让你掌握一门强大的机器学习方法,同时也可以更好地帮助你理解深度学习技术。 本文以一种简单的,循序的方式讲解神经网络。适合对神经网络了解不多的同学。本文对阅读没有一定的前提要求,但是懂一些机器学习基础会更好地帮助理解本文。 神经网络是转载 2017-02-07 20:35:44 · 448 阅读 · 0 评论 -
多任务学习
http://blog.csdn.net/demon7639/article/details/41804619?locationNum=1几种分类问题的区别:多类分类,多标签分类,多示例学习,多任务学习标签: 机器学习分类2014-12-08 15:49 713人阅读 评论(0) 收藏 举报本文章已收录于: 机器学习知识转载 2017-02-07 21:26:15 · 2961 阅读 · 0 评论 -
HPC GPU Node:
https://hpc.oit.uci.edu/gpuHPC GPU Node:NVIDIA Corporation has graciously donated four (4) of their top high-end Tesla M2090 GPU cards to the HPC Cluster at UCI for your research n转载 2017-02-07 22:43:43 · 678 阅读 · 0 评论 -
CNN卷积神经网络新想法
http://www.mamicode.com/info-detail-971389.htmlCNN卷积神经网络新想法时间:2015-08-08 00:04:21 阅读:9741 评论:6 收藏:2 [点我收藏+]标签:深度学习 cnn 卷积神经网络 最近一直在看卷积神经网络,想改进改进弄出点新东转载 2017-02-07 23:15:50 · 403 阅读 · 0 评论 -
基于交通路标分类的多列深度神经网络(MCDNN)
http://blog.csdn.net/u010529217/article/details/38701703基于交通路标分类的多列深度神经网络(MCDNN)标签: networkdnnmcdnn2014-08-20 09:34 2288人阅读 评论(1) 收藏 举报目录(?)[+]原文标题:Multi-Co转载 2017-02-07 23:42:54 · 582 阅读 · 0 评论 -
池化方法总结(Pooling) 和卷积 。 第三部分讲的很好
池化方法总结(Pooling)2016-01-12 22:55 5033人阅读 评论(2) 收藏 举报 分类:deep learning(18) 目录(?)[+]在卷积神经网络中,我们经常会碰到池化操作,而池化层往往在卷积层后面,通过池化来降低卷积层输出的特征向量,同时改善结果(不易出现过拟合)。为什么可以通过降低转载 2017-02-08 09:41:12 · 51516 阅读 · 1 评论 -
使用SGD(Stochastic Gradient Descent)进行大规模机器学习
http://fuliang.iteye.com/blog/1482002使用SGD(Stochastic Gradient Descent)进行大规模机器学习 1 基于梯度下降的学习 对于一个简单的机器学习算法,每一个样例包含了一个(x,y)对,其中一个输入x和一个数值输出y。我们考虑损失函数,它描述了预测值和实际值y之间的损失。预测值是我们选择从一函数族F中选择一个转载 2017-02-08 11:38:00 · 428 阅读 · 0 评论 -
深度学习中经常看到epoch、 iteration和batchsize
深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别:(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;(2)iteration:1个iteration等于使用batchsize个样本训练一次;(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;举个例子,训练集转载 2017-02-08 11:40:59 · 1467 阅读 · 0 评论 -
机器学习基础—— 模拟退火(Simulated Annealing)
http://blog.csdn.net/lanchunhui/article/details/51112227机器学习基础(四十五)—— 模拟退火(Simulated Annealing)2016-04-10 12:36 207人阅读 评论(0) 收藏 举报 分类:机器学习(123) 版权声明:本文为博主转载 2017-02-08 12:20:28 · 860 阅读 · 0 评论 -
机器学习基础—— 遗传算法(GA)
http://blog.csdn.net/lanchunhui/article/details/51112862机器学习基础—— 遗传算法(GA)2016-04-10 14:44 432人阅读 评论(0) 收藏 举报 分类:机器学习(123) 版权声明:本文为博主原创文章,未经博主允许不得转载。转载 2017-02-08 12:27:54 · 1055 阅读 · 0 评论