机器学习
文章平均质量分 94
阿炜
学c#
展开
-
在Ubuntu 18.04.5 LTS下装CUDNN8.0
系统ubuntu18.04机器上有两个nvidia2080ti,有人已经装了nvidia driver和cuda11.0,没看到dudnn。于是就想把cudnn装上,在网上看了一下dudnn8.0与之匹配。到nvidia官网上下载:在这里下载需要注册,我以前用邮箱注册过,但记不住密码了。重新用微信注册了一个账号。https://developer.nvidia.com/rdp/cudnn-download找到:Download cuDNN v8.0.4 (September 28th, 202原创 2020-11-08 10:23:19 · 681 阅读 · 0 评论 -
随机模拟的基本思想和常用采样方法(sampling)
博主不让转载只能链接了,好的东西怕自己找不到了。http://blog.csdn.net/xianlingmao/article/details/7768833转载 2015-12-19 11:46:47 · 507 阅读 · 0 评论 -
图像特征特点及其常用的特征提取与匹配方法
常用的图像特征有颜色特征、纹理特征、形状特征、空间关系特征。一 颜色特征(一)特点:颜色特征是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征,此时所有属于图像或图像区域的像素都有各自的贡献。由于颜色对图像或图像区域的方向、大小等变化不敏感,所以颜色特征不能很好地捕捉图像中对象的局部特征。(二)常用的特征提取与匹配方法颜色直方图其优点在于转载 2015-12-19 19:33:51 · 1562 阅读 · 0 评论 -
再谈协方差矩阵之主成分分析
再谈协方差矩阵之主成分分析发表于 2011-02-24 | 颖风转自:http://pinkyjie.com/2011/02/24/covariance-pca/自从上次谈了协方差矩阵之后,感觉写这种科普性文章还不错,那我就再谈一把协方差矩阵吧。上次那篇文章在理论层次介绍了下协方差矩阵,没准很多人觉得这东西用处不大,其实协方差矩阵在好多学科里都有很重要的作用转载 2015-12-23 20:50:41 · 1070 阅读 · 0 评论 -
受限玻尔兹曼机(Restricted Boltzmann Machine, RBM) 简介
转自:http://www.cnblogs.com/kemaswill/p/3203605.html受限玻尔兹曼机(Restricted Boltzmann Machine,简称RBM)是由Hinton和Sejnowski于1986年提出的一种生成式随机神经网络(generative stochastic neural network),该网络由一些可见单元(visible unit,对应转载 2015-12-08 15:49:28 · 1274 阅读 · 0 评论 -
L1 L2 LASSO问题-难得的好文
Sparsity 是当今机器学习领域中的一个重要话题。John Lafferty 和 Larry Wasserman 在 2006 年的一篇评论中提到:Some current challenges … are high dimensional data, sparsity, semi-supervised learning, the relation between computat转载 2015-12-07 17:33:49 · 3453 阅读 · 0 评论 -
(EM算法)The EM Algorithm
(EM算法)The EM Algorithm EM是我一直想深入学习的算法之一,第一次听说是在NLP课中的HMM那一节,为了解决HMM的参数估计问题,使用了EM算法。在之后的MT中的词对齐中也用到了。在Mitchell的书中也提到EM可以用于贝叶斯网络中。下面主要介绍EM的整个推导过程。1. Jensen不等式 回顾优化理论中的一些概念。设f是定义域转载 2016-03-04 21:15:13 · 587 阅读 · 1 评论 -
深度学习史上最全总结(文末有福利)
深度学习史上最全总结(文末有福利)2015-07-10张德兵 格灵深瞳 收藏,稍后阅读已收藏 深度学习(Deep Learning),这是一个在近几年火遍各个领域的词汇,似乎所有的算法只要跟它扯上关系,瞬间就显得高大上起来。但其实,从2006年Hinton在Science上的论文算起,深度学习发展至今才不到十年。四大金刚镇楼转载 2016-06-24 10:53:56 · 6208 阅读 · 3 评论 -
深度学习系列Part2:迁移学习和微调深度卷积神经网络
深度学习系列Part2:迁移学习和微调深度卷积神经网络2016-08-30 16:28:36 深度学习 卷积神经网络 0 0 0本文是微软数据科学家 Anusua Trivedi 所写的《Deep Learning》系列文章的第二部分,是对迁移学习和微调深度卷积神经网络的介绍。机器之心此前也已经编译了该系列的第一部分,详情点击《五大主流深度学习框架转载 2016-12-22 19:31:34 · 2167 阅读 · 1 评论 -
分布式深度学习:神经网络的分布式训练
分布式深度学习:神经网络的分布式训练2016-10-09 14:05:04 深度学习 神经网络 http://www.jiqizhixin.com/article/1611 0 0 0本文编译自 Skymind 的技术博客,作者是深度学习工程师 Alex Black 和 Vyacheslav Kokorin。按照计划,《Distributed Dee转载 2016-12-22 20:03:29 · 16735 阅读 · 1 评论 -
caffe下cnn调试中碰到Check failed: ReadProtoFromBinaryFile(param_file, param) Failed to parse NetParameter
在用官网已经训练好的bvlc_googlenet.caffemodel模型文件进行分类时出现I0417 07:39:42.430258 1149 net.cpp:255] Network initialization done.F0417 07:39:42.430991 1149 upgrade_proto.cpp:95] Check failed: ReadProtoFromBina原创 2017-04-17 16:13:13 · 20534 阅读 · 11 评论 -
DeepMind AI 关系推理超越人类:深度神经网络模块即插即用
来源:新智元【新智元导读】DeepMind 今天发表官博介绍了他们的两篇最新论文,称其都在理解“关系推理”这一挑战方面展示出了令人可喜的结果。一个是视觉互动网络 VIN,能够预测视觉场景中各个物体在未来几百步所处位置,另一个则是模块化的、具有关系推理能力的深度神经网络架构 RN,可以“即插即用”,提升其他深度神经网络结构(如 CNN)关系推理的能力。在李飞飞等人提出的图像理解数据集 C转载 2017-06-17 16:52:27 · 2917 阅读 · 1 评论 -
RBM(受限波尔兹曼机)和 DBN(深信度神经网络)
原文地址:http://blog.csdn.net/hanzihan123/article/details/23707143版主不让转啊,不过太好啦,不转怕找不到啦!前言:Deep Learning (DL深度学习)是近几年来最火的一种机器学习方法,由Hinton(多伦多大学)提出。主要有两分支:Geoffery Hinton和Joshua Bengio这一支用RBM组成d转载 2015-12-08 19:39:49 · 5866 阅读 · 3 评论 -
一个神经网络学习一切!谷歌又放了个大卫星(附论文)
转自 佩服 量子位李林 问耕 编译自 Arxiv 量子位 出品 | 公众号 QbitAI最近,Google又在论文题目上口出狂言:One Model To Learn Them All,一个模型什么都能学。非营利研究机构OpenAI的研究员Andrej Karpathy在Twitter上评论说,Google在把自己整个变成一个大神经网络的路上,又前进了一步。转载 2017-06-23 20:46:11 · 2466 阅读 · 0 评论 -
【TensorFlow】tf.nn.conv2d是怎样实现卷积的?有1*1(1×1)卷积介绍
版权声明:本文为博主原创文章,转载请注明出处。文章太好了,怕丢!,转自xf_mao的:http://blog.csdn.net/mao_xiao_feng/article/details/53444333tf.nn.conv2d是TensorF转载 2017-08-03 10:24:29 · 4609 阅读 · 0 评论 -
RBM简单理解-tornadomeet哥的原文
Deep learning:十九(RBM简单理解) 这篇博客主要用来简单介绍下RBM网络,因为deep learning中的一个重要网络结构DBN就可以由RBM网络叠加而成,所以对RBM的理解有利于我们对DBN算法以及deep learning算法的进一步理解。Deep learning是从06年开始火得,得益于大牛Hinton的文章,不过这位大牛的文章比较晦涩难懂,公式太多,对于转载 2015-12-19 09:57:51 · 1283 阅读 · 0 评论 -
机器学习中的规则化范数(L0, L1, L2, 核范数)
今天我们聊聊机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。最后聊下规则化项参数的选择问题。这里因为篇幅比较庞大,为了不吓到大家,我将这个五个部分分成两篇博文。知识有限,以下都是我一些浅显的看法,如果理解存在错误,希望大家不吝指正。谢谢。 监督机器学习问题无非就是“minimizeyour error while regula转载 2015-12-01 16:47:50 · 906 阅读 · 0 评论 -
Softmax回归
转过来吧,可以加点东西Softmax回归Contents [hide]1 简介2 代价函数3 Softmax回归模型参数化的特点4 权重衰减5 Softmax回归与Logistic 回归的关系6 Softmax 回归 vs. k 个二元分类器7 中英文对照8 中文译者简介在本节中,我们介绍Softmax转载 2015-12-17 19:37:08 · 624 阅读 · 0 评论 -
或非运算
或非一种逻辑算法,常在计算机中以“或非门”的形式存在。表示为:NOR。输入 输出1 1 01 0 00 0 1即作一次或者多次“或”运算后再做一次“非”运算。有1出0,全0出1.转载 2014-03-20 21:19:29 · 3704 阅读 · 0 评论 -
人工神经网络及其在医学影像分析中的应用
摘要:人工神经网络(ANN)是在结构上模仿生物神经联结型系统,能够设计来进行模式分析,信号处理等工作。为了使医学生和医务工作者能对神经网络,特别是人工神经网络及其在医学图像和信号检测与分析中的应用有个全面了解,本文避免了繁琐的数学分析与推导,以阐明物理概念为主,深入浅出地就有关问题加以阐述,期望有所裨益。 关键词:人工神经网络;产生;原理;特点;应用 Application转载 2014-06-05 10:30:01 · 4890 阅读 · 0 评论 -
学习记录:我来说卷积
俺写了那么“精彩”的数学科普没人看,却让不是搞数学的人写的数学占了上风,杯具啊,实在是杯具。是俺的数学水平太高还是你们的数学欣赏水平太低?亦或俺写的太专业?这回来点不专业的。 唐老师用输液过程解释卷积的确有点意思,比较容易让人接受,老邪的方法更简明易懂,不过老邪的方法可以解释怎么定义卷积,却不能说明为什么要定义卷积。 如果我没有记错,卷积最早来自于信号系统理论,后来被数转载 2014-05-22 19:04:08 · 708 阅读 · 0 评论 -
笔记:Delaunay三角剖分(Delaunay Triangulation)相关知识
笔记:Delaunay三角剖分(Delaunay Triangulation)相关知识最近接触到计算Delaunay三角剖分的问题,也算是计算几何的一个经典问题了。按照别人的算法,也自己实现了个(源代码下载),发现点集大的时候,程序计算起来特慢。后来分析发现,别人程序号称的都是O(nlogn)的,我的却成了O(n*n)的,算法都是一样,后来才发现是数据结构的问题,看来程序=算法+数据结构,转载 2015-11-05 09:03:38 · 998 阅读 · 0 评论 -
PCA (主成分分析)详解 (写给初学者) 结合matlab
一、简介 PCA(Principal Components Analysis)即主成分分析,是图像处理中经常用到的降维方法,大家知道,我们在处理有关数字图像处理方面的问题时,比如经常用的图像的查询问题,在一个几万或者几百万甚至更大的数据库中查询一幅相近的图像。这时,我们通常的方法是对图像库中的图片提取响应的特征,如颜色,纹理,sift,surf,vlad等等特征,然后将其保存转载 2015-11-08 17:11:17 · 919 阅读 · 0 评论 -
Deep Learning(深度学习)学习笔记整理系列之常用模型
Deep Learning(深度学习)学习笔记整理系列之常用模型(四、五、六、七)九、Deep Learning的常用模型或者方法9.1、AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是转载 2015-11-11 21:44:07 · 4224 阅读 · 1 评论 -
Deep Belief Network简介
转自:http://www.cnblogs.com/kemaswill/p/3266026.html1. 多层神经网络存在的问题 常用的神经网络模型, 一般只包含输入层, 输出层和一个隐藏层: 理论上来说, 隐藏层越多, 模型的表达能力应该越强。但是, 当隐藏层数多于一层时, 如果我们使用随机值来初始化权重, 使用梯度下降来优化参数就会出现许多转载 2015-12-08 19:16:40 · 2905 阅读 · 0 评论 -
浅谈协方差矩阵
统计学的基本概念学过概率统计的孩子都知道,统计里最基本的概念就是样本的均值,方差,或者再加个标准差。首先我们给你一个含有n个样本的集合X={X1,……Xn},依次给出这些概念的公式描述,这些高中学过数学的孩子都应该知道吧,一带而过。 很显然,均值描述的是样本集合的中间点,它告诉我们的信息是很有限的,而标准差给我们描述的则是样本集合的各个样本点到均值的距离之平均。以这两个集合为例,[0,转载 2015-11-22 22:01:17 · 877 阅读 · 0 评论 -
卷积神经网络CNN
卷积神经网络CNN2014年09月05日 近来在了解深度学习。深度神经网络的一大特点就是含有多隐含层。卷积神经网络(CNN)算是深度神经网的前身了,在手写数字识别上在90年代初就已经达到了商用的程度。本文中将简要介绍CNN,由于相应的博文资料已经很多,也写的很好,本篇最有价值的是参考资料部分。前向神经网络数字识别假设我们的图片是28*28像素转载 2015-11-17 16:27:33 · 669 阅读 · 0 评论 -
从二维点集重建平面形状-浅议凹包算法 - Jumanco&Hide
从二维点集重建平面形状-浅议凹包算法 - Jumanco&Hide主题 算法 向量 游戏开发问题背景近期遇到一个计算几何问题,需要从点集中重建一个合理的几何形状。这个问题既有二维的也有三维的,二维的情况相对简单一点,即给出平面区域的一系列散点,求出一定程度上反映这些散点轮廓的平面多边形,给出边的连接方式即可。如从下图的左图散点重建为右图的形状:转载 2015-11-01 18:43:35 · 13901 阅读 · 4 评论 -
奇异值分解(SVD) --- 几何意义
奇异值分解(SVD) --- 几何意义 PS:一直以来对SVD分解似懂非懂,此文为译文,原文以细致的分析+大量的可视化图形演示了SVD的几何意义。能在有限的篇幅把 这个问题讲解的如此清晰,实属不易。原文举了一个简单的图像处理问题,简单形象,真心希望路过的各路朋友能从不同的角度阐述下自己对SVD实际意义的理 解,比如 个性化推荐中应用了SVD,文本以及Web挖掘的时候转载 2015-11-21 10:54:07 · 647 阅读 · 0 评论 -
技术向:一文读懂卷积神经网络
自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是,Deep Learning是全部深度学习算法的总称,CNN是深度学习算法在图像处转载 2015-12-14 19:52:45 · 980 阅读 · 0 评论 -
CNN卷积神经网络应用于人脸识别(详细流程+代码实现)
CNN卷积神经网络应用于人脸识别(详细流程+代码实现)作者:wepon 出处:wepon的博客本文主要讲解将CNN应用于人脸识别的流程,程序基于python+numpy+theano+PIL开发,采用类似LeNet5的CNN模型,应用于olivettifaces人脸数据库,实现人脸识别的功能,模型的误差降到了5%以下。本程序只是个人学习过程的一个toy implement,样本很小,模转载 2015-12-16 16:19:52 · 27311 阅读 · 3 评论 -
先验概率与后验概率、贝叶斯区别与联系
目录(?)[+]本文假设大家都知道什么叫条件概率了(P(A|B)表示在B事件发生的情况下,A事件发生的概率)。先验概率和后验概率教科书上的解释总是太绕了。其实举个例子大家就明白这两个东西了。假设我们出门堵车的可能因素有两个(就是假设而已,别当真):车辆太多和交通事故。堵车的概率就是先验概率 。那么如果我们出门之前我们听到新闻说今天路上出了个交通事故,那么我们转载 2016-01-18 16:42:57 · 21149 阅读 · 4 评论 -
与非运算
与非一种逻辑算法,常在计算机中以“与非门”的形式存在。表示为:NAND。输入 输出1 1 01 0 10 1 10 0 1即先作一次“与”运算后,再做一次“非”运算。进行与非运算的电路称为与非门,其输出结果为:有0出1,全1出0.转载 2014-03-20 21:16:14 · 7538 阅读 · 0 评论